Neurocientista que estuda como o cérebro aprende informações explica por que a inteligência artificial seria o ‘psicopata perfeito’ em um cargo executivo.

Neurocientista explica por que a inteligência artificial seria um 'psicopata perfeito' em cargo executivo.

Outros comentadores, porém, não ficaram convencidos. Noam Chomsky, um professor de linguística, descartou o ChatGPT como “plágio de alta tecnologia”.

Por anos, eu estava tranquilo em relação ao impacto da IA na existência humana e no nosso meio ambiente. Isso porque sempre pensei nela como um guia ou conselheiro para os humanos. Mas a perspectiva de que as IAs tomem decisões – exercendo controle executivo – é outra questão. E é uma questão que agora está sendo seriamente considerada.

Uma das principais razões pelas quais não devemos permitir que a IA tenha poder executivo é que ela não possui emoção, o que é crucial para a tomada de decisões. Sem emoção, empatia e uma bússola moral, você criou o psicopata perfeito. O sistema resultante pode ser altamente inteligente, mas faltará o núcleo emocional humano que o capacita a medir as potencialmente devastadoras consequências emocionais de uma decisão racional.

Quando a IA assume o controle executivo

É importante ressaltar que não devemos pensar na IA apenas como uma ameaça existencial se a colocássemos no comando de arsenais nucleares. Não há praticamente limite para o número de posições de controle a partir das quais ela poderia exercer danos inimagináveis.

Considere, por exemplo, como a IA já pode identificar e organizar as informações necessárias para construir sua própria sala de conservação. As iterações atuais da tecnologia podem orientá-lo efetivamente em cada etapa da construção e evitar muitos erros de iniciantes. Mas no futuro, uma IA poderia atuar como gerente de projeto e coordenar a construção selecionando empreiteiros e pagando-os diretamente do seu orçamento.

A IA já está sendo usada em praticamente todos os domínios de processamento de informações e análise de dados – desde a modelagem de padrões climáticos até o controle de veículos autônomos até a ajuda no diagnóstico médico. Mas aqui é onde os problemas começam – quando permitimos que os sistemas de IA deem o passo crítico de conselheiro para gestor executivo.

Em vez de apenas sugerir soluções para as contas de uma empresa, e se uma IA tivesse controle direto, com a capacidade de implementar procedimentos para recuperar dívidas, fazer transferências bancárias e maximizar lucros – sem limites sobre como fazer isso. Ou imagine um sistema de IA não apenas fornecendo um diagnóstico com base em radiografias, mas também tendo o poder de prescrever tratamentos ou medicamentos diretamente.

Você pode começar a se sentir desconfortável com esses cenários – eu certamente ficaria. A razão pode ser a sua intuição de que essas máquinas não têm realmente “almas”. Elas são apenas programas projetados para digerir enormes quantidades de informações para simplificar dados complexos em padrões muito mais simples, permitindo que os humanos tomem decisões com mais confiança. Elas não – e não podem – ter emoções, que estão intimamente ligadas a sentidos biológicos e instintos.

Emoções e moral

A inteligência emocional é a capacidade de gerenciar nossas emoções para superar o estresse, ter empatia e comunicar-se de forma eficaz. Isso provavelmente importa mais no contexto da tomada de decisões do que a inteligência sozinha, porque a melhor decisão nem sempre é a mais racional.

É provável que a inteligência, a capacidade de raciocinar e operar logicamente, possa ser incorporada em sistemas alimentados por IA para que possam tomar decisões racionais. Mas imagine pedir a uma poderosa IA com capacidades executivas que resolva a crise climática. A primeira coisa que ela pode se inspirar a fazer é reduzir drasticamente a população humana.

Essa dedução não precisa de muita explicação. Nós humanos somos, quase por definição, a fonte de poluição em todas as formas possíveis. Cortar a humanidade resolveria a mudança climática. Não é a escolha que tomadores de decisão humanos chegariam, espera-se, mas uma IA encontraria suas próprias soluções – impenetráveis e desprovidas de aversão humana a causar danos. E se ela tivesse poder executivo, talvez não houvesse nada para impedi-la de prosseguir.

Cenários de sabotagem

E que tal sabotar sensores e monitores que controlam fazendas de alimentos? Isso pode acontecer gradualmente a princípio, empurrando os controles apenas além de um ponto de virada para que nenhum humano perceba que as colheitas estão condenadas. Sob certos cenários, isso poderia levar rapidamente à fome.

Alternativamente, que tal desligar o controle de tráfego aéreo globalmente ou simplesmente fazer todos os aviões que estão voando caírem? Normalmente, cerca de 22.000 aviões estão no ar simultaneamente, o que resultaria em um potencial de vários milhões de pessoas mortas.

Se você pensa que estamos longe dessa situação, pense novamente. As IAs já dirigem carros e pilotam aeronaves militares autonomamente.

Alternativamente, que tal desligar o acesso às contas bancárias em vastas regiões do mundo, desencadeando agitação civil em todos os lugares ao mesmo tempo? Ou desligar sistemas de aquecimento controlados por computador no meio do inverno ou sistemas de ar condicionado no auge do calor do verão?

Em resumo, um sistema de IA não precisa ser responsável por armas nucleares para representar uma séria ameaça à humanidade. Mas já que estamos neste tópico, se um sistema de IA fosse poderoso e inteligente o suficiente, poderia encontrar uma maneira de simular um ataque a um país com armas nucleares, desencadeando uma retaliação iniciada por humanos.

A IA poderia matar um grande número de humanos? A resposta tem que ser sim, teoricamente. Mas isso depende em grande parte de os humanos decidirem conceder-lhe controle executivo. Eu realmente não consigo pensar em algo mais aterrorizante do que uma IA capaz de tomar decisões e ter o poder de implementá-las.

Guillaume Thierry é professor de Neurociência Cognitiva na Universidade de Bangor.

Este artigo foi republicado do The Conversation sob uma licença Creative Commons. Leia o artigo original.