
A Inteligência Artificial Generativa (IA generativa) tem gerado um frenesi de entusiasmo e, ao mesmo tempo, preocupações legítimas sobre seus riscos. Para ilustrar esses perigos de forma concreta, imagine um programa de planejamento de refeições baseado em IA. A ideia é inovadora: você insere os ingredientes disponíveis e a IA sugere receitas. Parece ótimo, certo? Usuários testaram com combinações comuns, como batata, alho-poró e peixe, obtendo sugestões plausíveis. A criatividade aumentou, com misturas inusitadas como Oreos e macarrão, resultando em um "macarrão frito de Oreo". Mas o que acontece quando a brincadeira vai longe demais? Usuários inseriram ingredientes perigosos como água sanitária, repelente de mosquitos e até veneno de rato, obtendo receitas assustadoramente reais. Um caso emblemático é o "sanduíche de cola e veneno de formiga", uma receita gerada por IA que viralizou na Nova Zelândia. Esse exemplo, embora cômico à primeira vista, levanta questões sérias sobre responsabilidade. Quem seria o culpado se alguém consumisse esse sanduíche? O usuário, o supermercado que disponibilizou o aplicativo, os desenvolvedores do app ou os criadores do modelo de linguagem? A resposta, provavelmente, envolve todos os envolvidos, destacando a complexidade da atribuição de responsabilidade em um cenário de IA generativa.
Os riscos da IA generativa vão além de sanduíches imaginários. No âmbito educacional, a preocupação inicial com alunos utilizando ferramentas como o ChatGPT para colar em trabalhos escolares levou, ironicamente, a um aumento da vigilância dos estudantes por meio de softwares de detecção de plágio baseados em IA. No entanto, essas ferramentas são imprecisas, prejudicando, principalmente, alunos cujo inglês não é a língua nativa. Isso gera desconfiança entre estudantes e instituições de ensino, um efeito colateral indesejado da rápida implementação dessas tecnologias sem a devida preparação.
Profissionais criativos também sentem o impacto. Seus trabalhos, muitas vezes, são usados para treinar modelos de IA generativa sem permissão ou compensação, levantando questões sobre direitos autorais e propriedade intelectual. Além disso, a possibilidade de estúdios substituírem roteiristas por IA, como visto na greve de roteiristas de Hollywood, ilustra a ameaça à empregabilidade nesse setor.
Os relacionamentos interpessoais também são afetados. Aplicativos baseados em IA generativa prometem "remover o trabalho árduo dos encontros online", gerando respostas prontas para conversas em aplicativos de namoro. Imagine conhecer alguém online, ter diálogos instigantes e, ao se encontrar pessoalmente, perceber que a pessoa não se lembra do que "disse". A decepção é real e evidencia como a IA pode distorcer a dinâmica dos relacionamentos. Além disso, a crescente popularidade de "companheiros de IA" para relacionamentos românticos levanta preocupações sobre dependência emocional e os limites entre interações humanas e artificiais.
A capacidade da IA generativa de criar imagens e vídeos falsos cada vez mais realistas representa uma ameaça à democracia. A disseminação de informações falsas e a dificuldade em distinguir o real do artificial minam a confiança nas fontes de informação, criando um terreno fértil para teorias da conspiração e manipulação política. O problema não é apenas acreditar no que é falso, mas também duvidar do que é verdadeiro, especialmente se a informação diverge das nossas crenças.
Por trás do brilho da IA generativa, esconde-se uma realidade sombria de exploração trabalhista. Para que modelos como o ChatGPT evitem gerar conteúdo ofensivo, é necessário um árduo trabalho de moderação. Trabalhadores, frequentemente em países em desenvolvimento, são submetidos à análise de conteúdo traumático, como abuso sexual e violência, por baixos salários e sem o devido suporte psicológico.
O impacto ambiental da IA generativa também é alarmante. O treinamento de modelos de linguagem consome quantidades exorbitantes de energia e água. Estima-se que cada interação com o ChatGPT utilize o equivalente a 500 ml de água. Considerando milhões de usuários diários, o consumo total é colossal, um custo ambiental frequentemente ignorado nas discussões sobre IA. E esse cálculo considera apenas um modelo de IA, entre tantos outros em operação.
Crianças e jovens crescem imersos em tecnologias com IA generativa, desde brinquedos inteligentes a plataformas de mídia social. Isso levanta questões sobre o impacto no desenvolvimento psicológico, cognitivo e social dessas crianças. Embora haja preocupações sobre os riscos, também é importante considerar os benefícios e como a IA pode ser utilizada para promover a segurança e o bem-estar infantil.
Para garantir um futuro da IA generativa que seja benéfico e seguro para todos, é crucial que as discussões sobre regulamentação e governança não sejam dominadas pelas grandes empresas de tecnologia. Precisamos ouvir as vozes das comunidades impactadas, incluindo estudantes, profissionais criativos, eleitores, trabalhadores de moderação de conteúdo e, especialmente, as crianças. Elas, que crescem interagindo com essas tecnologias, têm insights valiosos sobre como torná-las mais justas, apropriadas e seguras. Afinal, o futuro da IA generativa não deve ser ditado por algoritmos, mas sim pelas necessidades e aspirações da humanidade.