Artes/cultura
16/01/2020 às 06:00•3 min de leitura
Alguma vez na vida alguém já colocou uma folha de papel sobre um objeto redondo e tentou copiar o que havia nele: um desenho, um mapa, uma tatuagem. A tarefa é quase impossível. Grosso modo, isso era o que acontecia quando se pedia a uma rede neural para ler uma superfície tridimensional. Com o avanço da tecnologia que usa inteligência artificial, era preciso fazer com que as redes neurais também interpretassem e reproduzissem a terceira dimensão.
Depois de quase 4 anos de pesquisa sobre o aprendizado geométrico de máquina, pesquisadores da Universidade de Amsterdã e da Qualcomm AI Research conseguiram chegar a uma inteligência artificial de medição capaz de ler qualquer superfície geométrica, seja um tufão em um modelo climático, seja um tumor em um exame.
A equivalência é a base do estudo, como quando se mede um campo de futebol (em jardas ou metros) ou fotografa um edifício (de baixo, de lado ou de cima): os números e a imagem mudarão, mas de maneira previsível, sempre se relacionando entre si. A suposição de que o campo de futebol e o edifício não mudam é a mesma que a inteligência artificial de medição faz em relação aos dados.
O procedimento usado para a máquina entender uma superfície bidimensional se chama convolução, e o problema residia no fato de que nele não cabia a terceira dimensão ou profundidade. É o problema de quando se tentar copiar o desenho de uma bola usando uma folha de papel: ou o desenho vai sair torto ou o papel vai amassar — quando não acontecem as duas coisas.
A solução foi imaginar algo mais parecido com uma teia de aranha e menos com uma folha de papel. Se a inteligência artificial entendia as informações em camadas, como se estivesse sentada em uma cadeira, era preciso fazê-la se levantar e mudar sua perspectiva, ou seja, ensinar a ela, por exemplo, que um pulmão continua sendo um pulmão, não importando de que lado ele está sendo observado.
O problema com essa abordagem é que a rede neural precisa de muita informação para apreender algo. Se o objetivo é ensinar a ela a forma de um cachorro, a internet está cheia de imagens, nas mais diversas posições. Existem milhões de cães no mundo, mas nódulos cancerígenos são outra história.
O pesquisador Taco Cohen, da Qualcomm AI Research, sabia que alimentar a rede neural com informações faria com que a eficiência dos dados fosse aumentada. É simples se estamos falando de cachorros, porém complicado se tratamos de um câncer: milhares de imagens de tumores de pulmão em várias orientações não estão à disposição, por isso consegui-las e apreendê-las seria um processo demorado.
Era preciso fazer a máquina pensar que, em suma, um cachorro é sempre um cachorro: quatro patas, focinho, bigodes. Você não precisa ver 1 milhão de imagens para dizer, na centésima foto, que o retratado é um cão e que um cão é o que estará na milionésima foto. Então, a máquina aprendeu a "supor".
Em 2016, Cohen e seu colega Maurice Welling conseguiram codificar algumas dessas suposições em uma rede neural como simetrias geométricas através da generalização. Essa abordagem funcionou tão bem que, em 2018, o pesquisador da Qualcomm e a engenheira Marysia Winkels conseguiram resultados promissores no reconhecimento de câncer de pulmão em tomografias computadorizadas.
A nova inteligência artificial já foi aplicada não apenas na medicina como também na análise de dados climáticos globais, que usam modelos esféricos. Em 2017, uma IA padrão detectou ciclones com 74% de precisão; em 2019, a IA de medição identificou ciclones acertadamente em 97,9% das vezes. As aplicações são inúmeras: de drones com visão de 360° a scanners médicos que poderão identificar em um único exame um tumor imperceptível.
Inteligência artificial aprende a ver em 3 dimensões via TecMundo