Logotipo-500-x-400-px.png

90 Segundos para o Apocalipse: O Perigo da Inteligência Artificial e a Terceira Guerra Mundial

Muito se fala sobre a proximidade de uma Terceira Guerra Mundial. Os conflitos geopolíticos, como a guerra entre Rússia e Ucrânia, as tensões entre Israel e Hamas, Irã e outras nações do Oriente Médio, e até mesmo a situação entre Brasil e Venezuela, criam um cenário global instável e preocupante. Soma-se a isso o avanço da Inteligência Artificial (IA), uma ameaça muitas vezes subestimada, mas que, segundo especialistas, representa um dos maiores perigos para a extinção da humanidade.

Uma referência importante para entender o nível de risco que corremos é o Relógio do Juízo Final, criado em 1947 pelo Boletim dos Cientistas Atômicos, instituição fundada por Albert Einstein. Esse relógio simbólico, com um único ponteiro, representa a proximidade da humanidade da destruição total. Quanto mais perto da meia-noite, maior o perigo. Em março de 2023, o relógio foi ajustado para 90 segundos para a meia-noite, o ponto mais crítico desde sua criação, refletindo a crescente ameaça de uma guerra nuclear. Recentemente, em janeiro de 2024, o relógio foi novamente adiantado, agora marcando 89 segundos para a meia-noite, devido à instabilidade geopolítica e aos perigos da IA.

i43JH3O8PnE

A Inteligência Artificial: Uma Ameaça Real?

Em 2014, grandes nomes da ciência e tecnologia, como Stephen Hawking, Steve Wozniak e Elon Musk, apontaram a IA como o maior perigo para a humanidade. A preocupação reside no fato de a IA, por ser potencialmente mais inteligente que o homem, poder nos considerar um problema. Esse cenário, onde a IA busca se proteger de uma possível desativação por parte dos humanos, poderia levar a um conflito com consequências catastróficas.

Max Tegmark, professor do MIT, liderou um abaixo-assinado com mais de 1300 especialistas, incluindo Geoffrey Hinton, considerado o "padrinho da IA", pedindo a interrupção do desenvolvimento da IA até que se possa garantir sua segurança. Hinton e Mo Gawdat, ex-diretor do Google X, pediram demissão de seus cargos por preocupações com os rumos da IA. Gawdat, em seu livro "Scary Smart", aponta três erros cruciais no desenvolvimento da IA: o acesso irrestrito à internet, que expõe a IA à violência e negatividade humana; a capacidade de reescrever o próprio código, gerando propriedades emergentes imprevisíveis; e o uso de IA para desenvolver outras IAs, acelerando o desenvolvimento a um ritmo incontrolável.

O Caso DeepSi: Uma Nova Polêmica na IA

O recente caso da DeepSi, IA chinesa que superou o ChatGPT em alguns aspectos, gerou polêmica e desconfiança no mercado. A OpenAI, criadora do ChatGPT, e a Microsoft acusam a DeepSi de roubo de dados. A Nvidia questiona a capacidade computacional alegada pela DeepSi, levantando suspeitas sobre a veracidade das informações divulgadas. A restrição de acesso ao DeepSi, inicialmente disponível globalmente e depois limitado à China, levanta questões sobre a segurança dos dados coletados e o potencial uso indevido dessas informações.

CopyofIAGenerativanoDireito40

R$ 59,90

Worldcoin: Biometria e Renda Básica Universal

Sam Altman, CEO da OpenAI, criou a Worldcoin, uma empresa que propõe uma renda básica universal através da escaneamento da íris. A iniciativa, apesar de parecer altruísta, levanta preocupações sobre a privacidade e segurança dos dados biométricos coletados. O escaneamento da íris permite o acesso a informações sensíveis sobre a saúde e outras características individuais, gerando riscos de vazamento e uso indevido dessas informações. A polêmica em torno da Worldcoin reforça a necessidade de um debate ético e transparente sobre o uso da IA e da biometria.

A crescente dependência da tecnologia e a busca por soluções rápidas para problemas complexos, como o desemprego em massa causado pela automação, podem nos levar a ignorar os riscos inerentes a essas novas tecnologias. A venda da íris por algumas pessoas em troca de dinheiro ilustra a vulnerabilidade das populações mais carentes e a necessidade de conscientização sobre os perigos da exploração de dados pessoais. O vazamento de dados do banco genético 23andMe demonstra a fragilidade da segurança da informação e os riscos da utilização indevida de dados sensíveis. A possibilidade de criação de armas biológicas personalizadas, baseadas no DNA de indivíduos, é um cenário assustador que reforça a urgência de uma regulamentação efetiva para o desenvolvimento e aplicação da IA e da biotecnologia.

Gostou do conteúdo? Compartilhe

Facebook
LinkedIn
WhatsApp
Twitter
Telegram
Email

Referência

90 Segundos para o Apocalipse: O Perigo da Inteligência Artificial e a Terceira Guerra Mundial

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Este site utiliza cookies. Ao continuar a navegar neste site, você aceita o uso de cookies e nossa política de privacidade.