Ciência
13/07/2024 às 18:00•3 min de leituraAtualizado em 13/07/2024 às 18:00
Um futuro totalmente mecanizado e virtual está logo ali. Na década de 1960, o movimento de retrofuturismo despertou o sonho em muitos de um mundo operado por maquinários complexos, com braços reguláveis gigantes que serviriam para construir peça por peça de um automóvel ou até limpar uma casa inteira. Não é para menos que os autômatos, ou robôs, já foram encarados como “a melhor invenção do homem”.
Até um tempo atrás, a inteligência artificial, como um conjunto de várias tecnologias que permitem que funções avançadas sejam executadas, era apenas algo que existia nas páginas dos livros de Arthur C. Clarke. Hoje, no entanto, esse recurso já significa um mercado de mais de US$ 800 bilhões, capaz de transformar coisas e lugares, emular vozes, criar músicas, escrever redações, fazer atendimento virtual, cirurgias, transações bancárias e uma série de outras funções.
Apesar de as máquinas e a inteligência artificial terem se tornado essenciais na nossa vida e buscarmos cada vez mais por elas, o medo da tecnologia moderna, conhecido como tecnofobia, é algo que prevalece. Quando a primeira parte da Revolução Industrial aconteceu em 1760, as pessoas temeram que a mão de obra humana fosse substituída pelo maquinário tecnológico desenvolvido, e que todos caíssem em miséria, mesmo com a fome pelo progresso se forçando em meio a esse sentimento.
Depois que essa possibilidade foi afastada, o medo voltou nos momentos finais para a virada do século XXI, com os experimentos de clonagem e a criação de tecnologias de comunicação e armazenamento de dados, cimentando o que foi chamado de "modernização do cotidiano".
Os computadores já são mais poderosos em dar respostas ou eficazes em realizar procedimentos médicos do que a capacidade intelectual humana, então por que os seres humanos ainda não conseguem confiar na inteligência artificial?
A relação dos humanos com IA está totalmente vinculado a psicologia. Alguns não confiam nessa tecnologia para certas coisas em sua vida porque a enxerga como é: uma inteligência alienígena. A confiança depende não apenas da previsibilidade, mas de motivações normativas ou éticas, influenciada por experiência comum. Uma IA, porém, não passa de um conjunto de sistemas com uma limitação significativa: muitos de seus funcionamentos internos são impenetráveis ou fundamentalmente inexplicáveis, ou imprevisíveis.
O Dr. Mark Bailey, membro do corpo docente da National Intelligence University, onde é o Chefe do Departamento de Inteligência Cibernética e Ciência de Dados, explicou ao The Conversation que as decisões que as IA tomam são muitas vezes opacas porque são sistemas que contém trilhões de parâmetros. Seus sistemas são construídos em redes neurais de aprendizagem profunda que, de certa forma, emulam o cérebro humano, contendo "neurônios" interconectados com variáveis ou parâmetros que afetam a força das conexões entre eles. O problema é que o sistema de IA “aprende” a classificar cada ponto de dados não por memorização, mas prevendo o que esse ponto de dados pode ser.
Portanto, ninguém faz ideia de como uma IA vai se comportar diante de uma situação, o que é o grande problema de sua explicabilidade. Essa questão, inclusive, é constantemente colocada à prova no "Dilema do Trem", de Philippa Foot, sobre o pensamento ético.
O que uma IA controlando um carro faria se uma criança pequena corresse para o meio da pista: ela escolheria entre atropelar a criança ou desviar e bater, potencialmente ferindo seus passageiros? Essa escolha já seria difícil para um ser humano fazer, mas ele tem o benefício de ser capaz de explicar sua decisão, com racionalização moldada por normas éticas, percepções e outros comportamentos, tudo o que uma IA não dispõe.
Em outubro de 2021, pesquisadores de um laboratório de inteligência artificial em Seattle, chamado Allen Institute for AI, desenvolveram uma rede neural chamada "Delfos", uma tecnologia projetada para fazer julgamentos morais, visando o denominado problema de alinhamento da IA.
O processo foi celebrado por uns e rejeitado por outros, que consideram absurda a própria ideai de uma máquina moral. Afinal, quem consegue/está apto a ensinar ética às máquinas? Pesquisadores de IA? Gerentes de produto? Filósofos e psicólogos formados? Reguladores do governo?
Enquanto isso, alguns tecnólogos, como Bailey, acreditam que uma maneira de reduzir a incerteza e aumentar a confiança nas máquinas é garantir que o público esteja envolvido na tomada de decisões que os sistemas de IA fazem. Inclusive, essa é uma abordagem adotada pelo Departamento de Defesa dos EUA, que exige que um ser humano esteja nas funções on-the-loop (quando um sistema pode iniciar a ação por conta própria e um agente humano pode interromper ou alterá-la) e in-the-loop (quando o sistema faz uma recomendação, mas é necessário o agente humano para iniciar uma ação).
Essa solução, porém, não é sustentável a longo prazo. Quanto mais as empresas e instituições governamentais adotam a IA, o futuro incluirá sistemas tão aninhados que decisões cada vez mais rápidas limitará as oportunidades de intervenção das pessoas. Por essa razão que os especialistas acreditam ser importante resolver a explicabilidade e alinhamento da IA antes que seja tarde demais e os humanos não tenham outra opção senão confiar todos os departamentos de sua vida em uma inteligência alienígena.