Nos últimos quatro anos, pesquisadores do Google estão aperfeiçoando redes neurais virtuais para reconhecer de forma mais precisa imagens e sons. Elas seguem modelos de aprendizados para inteligência artificial, baseados em modelos neurológicos de seres vivos. A tecnologia ganhou a Internet quando eles desenvolveram um jeito de reinterpretar essas imagens, com resultados psicodélicos.
Google, Microsoft e Apple vão deixar navegadores 20 vezes mais rápidos
Os algoritmos são treinados recebendo milhares de imagens diferentes e dizendo a eles o que são. Quando, por exemplo, você mostra uma pizza ao robô em diversos ângulos e formatos diferentes, podemos dizer que ele foi treinado para reconhecer uma pizza. Desse modo, ao mostrar imagens para o computador, ele será capaz de dizer se existem ou não pizzas nelas, e o quão seguro ele está disso.
O reconhecimento do objeto em si é feito pela repetição de padrões de certas características dele, como forma e tamanho. No Facebook, um recurso parecido e mais simples está disponível, quando o site reconhece o rosto de seus amigos em fotos e sugere que você os marque.
Para a imagem como um todo, o computador a interpreta por meio de diversas camadas de compreensão, sendo as primeiras direcionadas ao reconhecimento de coisas simples como portas e folhas, e as últimas utilizadas para o reconhecimento de padrões complexos, como árvores ou prédios (a união de diversos padrões simples). Com a ajuda do maior banco de dados do planeta, o algoritmo consegue também realizar ligações entre objetos que têm alguma relação, como uma folha e um inseto.
Entendendo o padrão de reconhecimento de objetos e fotos inteiras, o próximo passo dos engenheiros foi pedir que o computador modificasse e gerasse imagens utilizando sua bagagem de conhecimento adquirida. Para isso, eles pediam ao computador que interpretasse a imagem e então realizavam modificações nas já citadas “camadas de compreensão”. As mais simples modificavam formas e cores, enquanto as mais complexas inseriam objetos já presentes ou relacionados com a imagem.
Veja alguns estão exemplos de imagens geradas pelo Deep Dream:
Como você pode perceber, camadas simples como a forma dos objetos já estão sendo reproduzidas com fidelidade, mas camadas complexas como o cenário envolvido ainda irão precisar de muito avanço caso o objetivo seja a realidade.
No quesito manipulação de imagem e vídeos já existentes, os resultados são incríveis. Dependendo do tipo de manipulação escolhido (uma espécie de filtro), o efeito do que vemos varia de criativo até assustador. Abaixo escolhemos alguns exemplos de imagens manipuladas.
O recurso já foi aplicado em um vídeo, no filme “Medo e Delírio em Las Vegas”. A imagem já é psicodélica originalmente e transformou-se em algo surreal pelo Google Deep Dream. Confira.
Faça você mesmo
O melhor do Google Deep Dream é que você mesmo pode utilizar o serviço. Se você deseja modificar suas imagens com o algoritmo e não entende nada de programação, sites como o Dreamscope App (dreamscopeapp.com) resolvem a tarefa, bastando carregar sua imagem e escolher o filtro.
Porém, se você entende de programação (principalmente python), basta acessar o código fonte do projeto (github.com/google/deepdream) e começar os trabalhos.
Qual o melhor buscador Google ou Baidu? Comente no Fórum do TechTudo.
>>> Veja o artigo completo no TechTudo
Mais Artigos...
- iPhone 7 Plus e outros celulares estão mais baratos no Brasil; veja preços
- Como mudar o papel de parede do Moto Maxx
- WhatsApp: áudio ganha autoplay em sequência em celular Android
- Confira os personagens mais usados por atletas em Dragon Ball FighterZ
- Como conquistar Pontos de Ascensão rapidamente em Final Fantasy XV
- Epic Games anuncia soma de US$ 100 milhões para competições de Fortnite
- Trackpad super sensível permite usar pincel de verdade e as mãos para criar
- Como jogar Uno pelo WhatsApp
- Dragon Ball e Naruto: cinco jogos de animes online para celulares
- Fifa 15 Ultimate Team ganha cartas especiais de Campeonato Espanhol