Nos últimos quatro anos, pesquisadores do Google estão aperfeiçoando redes neurais virtuais para reconhecer de forma mais precisa imagens e sons. Elas seguem modelos de aprendizados para inteligência artificial, baseados em modelos neurológicos de seres vivos. A tecnologia ganhou a Internet quando eles desenvolveram um jeito de reinterpretar essas imagens, com resultados psicodélicos.
Google, Microsoft e Apple vão deixar navegadores 20 vezes mais rápidos
Os algoritmos são treinados recebendo milhares de imagens diferentes e dizendo a eles o que são. Quando, por exemplo, você mostra uma pizza ao robô em diversos ângulos e formatos diferentes, podemos dizer que ele foi treinado para reconhecer uma pizza. Desse modo, ao mostrar imagens para o computador, ele será capaz de dizer se existem ou não pizzas nelas, e o quão seguro ele está disso.
O reconhecimento do objeto em si é feito pela repetição de padrões de certas características dele, como forma e tamanho. No Facebook, um recurso parecido e mais simples está disponível, quando o site reconhece o rosto de seus amigos em fotos e sugere que você os marque.
Para a imagem como um todo, o computador a interpreta por meio de diversas camadas de compreensão, sendo as primeiras direcionadas ao reconhecimento de coisas simples como portas e folhas, e as últimas utilizadas para o reconhecimento de padrões complexos, como árvores ou prédios (a união de diversos padrões simples). Com a ajuda do maior banco de dados do planeta, o algoritmo consegue também realizar ligações entre objetos que têm alguma relação, como uma folha e um inseto.
Entendendo o padrão de reconhecimento de objetos e fotos inteiras, o próximo passo dos engenheiros foi pedir que o computador modificasse e gerasse imagens utilizando sua bagagem de conhecimento adquirida. Para isso, eles pediam ao computador que interpretasse a imagem e então realizavam modificações nas já citadas “camadas de compreensão”. As mais simples modificavam formas e cores, enquanto as mais complexas inseriam objetos já presentes ou relacionados com a imagem.
Veja alguns estão exemplos de imagens geradas pelo Deep Dream:
Como você pode perceber, camadas simples como a forma dos objetos já estão sendo reproduzidas com fidelidade, mas camadas complexas como o cenário envolvido ainda irão precisar de muito avanço caso o objetivo seja a realidade.
No quesito manipulação de imagem e vídeos já existentes, os resultados são incríveis. Dependendo do tipo de manipulação escolhido (uma espécie de filtro), o efeito do que vemos varia de criativo até assustador. Abaixo escolhemos alguns exemplos de imagens manipuladas.
O recurso já foi aplicado em um vídeo, no filme “Medo e Delírio em Las Vegas”. A imagem já é psicodélica originalmente e transformou-se em algo surreal pelo Google Deep Dream. Confira.
Faça você mesmo
O melhor do Google Deep Dream é que você mesmo pode utilizar o serviço. Se você deseja modificar suas imagens com o algoritmo e não entende nada de programação, sites como o Dreamscope App (dreamscopeapp.com) resolvem a tarefa, bastando carregar sua imagem e escolher o filtro.
Porém, se você entende de programação (principalmente python), basta acessar o código fonte do projeto (github.com/google/deepdream) e começar os trabalhos.
Qual o melhor buscador Google ou Baidu? Comente no Fórum do TechTudo.
>>> Veja o artigo completo no TechTudo
Mais Artigos...
- O que é elojob? Entenda a prática que pode dar ban no LoL e Overwatch
- PES 2019: veja todos os times brasileiros licenciados até o momento
- Diablo 3, Evolve e Rayman estão entre as melhores ofertas da semana
- Cinco alto-falantes para PC da Logitech à venda no Brasil
- Galaxy Buds+ vem aí: saiba o que esperar do novo fone da Samsung
- Blizzard anuncia desconto em WoW e novidades para todos seus jogos
- Como fazer o download de Sand Balls e dicas de como jogar no celular
- Paranoid: game de terror promete recriar medo de filmes dos anos 80
- Como renderizar um v?deo para DVD no Sony Vegas
- Robô sexual e JBL Charge 3 estão entre destaques de eletrônicos em janeiro