A Inteligência Artificial (IA) está transformando rapidamente a maneira como interagimos com a internet, o mundo do trabalho e o acesso ao conhecimento. Essa revolução, no entanto, está apenas em seu estágio inicial. Especialistas identificaram três etapas principais no desenvolvimento da IA, e, de acordo com eles, ainda nos encontramos na primeira. Neste artigo, detalharemos cada uma dessas fases e discutiremos por que a terceira etapa causa apreensão entre os especialistas.

A primeira etapa, na qual nos encontramos atualmente, é a da Inteligência Artificial Estreita (ANI - Artificial Narrow Intelligence). Essa denominação se deve ao fato de seus algoritmos serem projetados para executar apenas uma tarefa específica. O conhecimento adquirido por esses algoritmos em uma determinada tarefa não é automaticamente transferível para outras funções. Geralmente, a ANI é treinada com base em um banco de dados, como a internet. Esses sistemas podem igualar ou até superar a inteligência humana, mas apenas na área específica para a qual foram programados, pois não conseguem realizar outras tarefas. Por isso, essa IA também é conhecida como "fraca".
Um exemplo claro dessa capacidade e limitação são os programas de xadrez que utilizam IA. Eles conseguem vencer até os melhores jogadores do mundo, mas não realizam nenhuma outra função. Os sistemas de ANI já estão mais presentes em nossas vidas do que imaginamos. Nossos smartphones, por exemplo, estão repletos de aplicativos que utilizam essa tecnologia: desde os mapas do GPS até os aplicativos de música e vídeo que aprendem nossas preferências para nos recomendar conteúdo. Assistentes virtuais como Siri e Alexa também se enquadram na ANI, assim como o mecanismo de busca do Google. Sistemas de IA Estreita também são empregados em linhas de produção de fábricas, no mercado financeiro e até mesmo em hospitais, auxiliando em diagnósticos.
Mesmo sistemas mais sofisticados, como carros autônomos e o ChatGPT, são considerados formas estreitas de IA, pois não podem operar fora dos parâmetros pré-determinados por seus programadores nem tomar decisões independentes. No entanto, alguns especialistas acreditam que sistemas como o ChatGPT, programados para aprendizado automático (machine learning), podem evoluir para a próxima etapa.
A segunda etapa é a da Inteligência Artificial Generalizada (AGI - Artificial General Intelligence). Nessa fase, a máquina atinge capacidades cognitivas semelhantes às de um ser humano, podendo executar qualquer tarefa intelectual realizada por uma pessoa. Se a ANI é considerada "fraca", a AGI é conhecida como "forte". Alguns pesquisadores acreditam que estamos próximos de alcançar esse estágio. Em março de 2023, mais de mil especialistas em tecnologia assinaram uma carta aberta solicitando a interrupção, por pelo menos seis meses, do treinamento de programas de IA mais poderosos que a versão mais recente do ChatGPT. Essa moratória visava conter o que eles chamaram de "corrida perigosa" no desenvolvimento de IAs cada vez mais "imprevisíveis", que poderiam escapar do controle de seus criadores. A pausa, segundo signatários como Elon Musk e Steve Wozniak, daria tempo para que governos e entidades criassem protocolos de segurança para regular essa nova tecnologia. A preocupação central da carta é que, no ritmo e modelo atuais, os sistemas de IA apresentam riscos significativos, incluindo a possibilidade de superarem numericamente os humanos, tornando-os obsoletos e levando à perda de controle sobre nossa civilização.
A terceira etapa é a da Superinteligência Artificial (ASI - Artificial Super Intelligence). Nessa fase, a inteligência artificial ultrapassa a inteligência humana. Segundo Nick Bostrom, filósofo da Universidade de Oxford e especialista em IA, a superinteligência consiste em "um intelecto muito mais inteligente do que os melhores cérebros humanos em praticamente todos os campos, inclusive a criatividade científica, a sabedoria geral e as habilidades sociais". Alguns especialistas acreditam que o intervalo entre a segunda e a terceira fase da IA seria curto. Geoffrey Hinton, considerado o "padrinho da inteligência artificial", alertou que as máquinas, embora ainda não sejam mais inteligentes que nós, podem se tornar em breve. O debate atual gira em torno da seguinte questão: a eventual chegada da superinteligência será benéfica ou prejudicial à humanidade?
Há quem acredite que a superinteligência nos ajudará a superar nossas limitações biológicas e a resolver os grandes desafios da humanidade. Ray Kurzweil, pesquisador do Google, previu que até 2030 os humanos alcançarão a imortalidade graças a nanorrobôs atuando em nossos corpos. Por outro lado, há quem veja uma grave ameaça à nossa existência, como o falecido físico Stephen Hawking, que fez advertências em 2014. Muitos especialistas, como os signatários da carta aberta mencionada, consideram preocupante a velocidade do desenvolvimento da IA sem limites claros e regulamentações. O desafio, portanto, é: o que podemos fazer agora para evitar um futuro em que máquinas muito mais inteligentes que nós assumam o controle?