terça-feira, 12 de fevereiro de 2019

Inteligência artificial

"Eventos estranhos" fazem tecnologia pensar que tartaruga era arma. 👀


O passageiro faz o sinal de parada e fica em pânico quando o carro em que está começa a acelerar. Ele até pensa em gritar com o motorista, mas percebeu  ao ver o trem rasgando em sua direção nos trilhos à frente que não há ninguém dirigindo. O trem a 200 km/h esmaga o veículo autônomo e mata na hora o ocupante.
Esse cenário é fictício, mas aponta uma falha muito real na estrutura de inteligência artificial. Certos "ruídos" podem confundir o sistema de reconhecimento das máquinas e as fazerem "alucinar". O resultado pode ser tão grave quanto o descrito acima. Apesar de o sinal de parada ser claramente visível aos olhos humanos, a máquina pode não conseguir reconhece-lo por causa de alterações na imagem.


Aqueles que trabalham com inteligência artificial descrevem essas falhas como "exemplos contraditórios" ou, de maneira simplificada, "eventos estranhos".

"Podemos entender essas falhas como informações que deveriam ser processadas de uma maneira pela rede, mas que cujos resultados são inesperados", afirma Anish Athalye, cientista da computação do Instituto de Tecnologia de Massachusetts, em Cambridge.

Os sistemas de reconhecimento visual têm recebido especial atenção nesses casos. Pequenas alterações em imagens podem enganar as redes neurais, os algoritmos de aprendizado da máquina que direcionam grande parte da tecnologia moderna de IA. Esse tipo de sistema já é usado, por exemplo, para marcar amigos em fotos ou identificar objetos nas imagens do smartphone. Com alterações leves na textura e na cor de objetos impressos em 3D, Athalye e colegas fizeram uma bola de beisebol, por exemplo, ser classificada como um café expresso e uma tartaruga, confundida com um rifle. Eles enganaram o computador com cerca de 200 outros objetos impressos em 3D. À medida que colocamos mais robôs em casa, drones no céu e veículos autônomos na rua, esse resultado se torna preocupante. "No começo isso era apenas uma curiosidade", diz Athalye. "Agora, no entanto, enxergamos isso como um potencial problema de segurança, já que os sistemas estão sendo cada vez mais implementados no mundo real".
Tome como exemplo os carros sem motorista que hoje passam por testes práticos: eles geralmente dependem de sofisticadas e profundas redes neurais de aprendizagem para navegar e dizer-lhes o que fazer. No entanto, os pesquisadores mostraram que, ao simplesmente colocar pequenos adesivos em placas de limite de velocidade, as redes neurais não conseguiram compreendê-las


Redes Hibridas 


A equipe de Stringer busca evidências de tais neurônios em cérebros humanos reais. E também vem desenvolvendo redes neurais "híbridas", que incorporem as novas informações para ver se elas produzem uma forma mais robusta de aprendizado de máquina. Uma coisa que a equipe de Stringer testará é se as redes saberiam, de forma confiável, se uma pessoa idosa está caindo, simplesmente sentando-se ou colocando as compras no chão de casa
"Esse ainda é um problema muito difícil para os algoritmos de visão artificial, enquanto que o cérebro humano pode resolver isso sem esforço", diz Stringer. Ele também contribui com a pesquisa do Laboratório de Ciência e Tecnologia de Defesa em Porton Down, em Wiltshire, Inglaterra, que desenvolve uma versão ampliada de sua estrutura neural para a área militar, como localizar tanques inimigos de câmeras inteligentes instaladas em drones autônomos.
O objetivo de Stringer é, em 20 anos, ter garantido uma inteligência artificial no mesmo nível que a de ratos. E ele reconhece que o desenvolvimento de uma inteligência no nível humano pode levar uma vida inteira, talvez até mais. Madry concorda que essa abordagem inspirada na neurociência é interessante para resolver os problemas com os atuais algoritmos de aprendizado de máquina. "Está ficando cada vez mais claro que a maneira como o cérebro funciona é bem diferente de como nossos modelos existentes de aprendizagem profunda funcionam", afirma.
"Então, isso pode acabar tomando um caminho completamente diferente. É difícil dizer o quão viável é e qual é o prazo necessário para alcançar o sucesso nesse caso", acrescenta. Enquanto isso, talvez precisemos evitar confiar demais nos robôs, carros e programas alimentados por inteligência artificial aos quais estaremos cada vez mais expostos. Nunca sabe se é uma alucinação.

Nenhum comentário:

Postar um comentário