Logotipo-500-x-400-px.png

O Futuro da Computação e a Ascensão da IA: Uma Perspectiva de Geoffrey Hinton

Em uma palestra recente, Geoffrey Hinton, um dos pioneiros da inteligência artificial, compartilhou suas visões sobre o futuro da computação e os potenciais perigos da ascensão da IA. Hinton discorreu sobre a diferença entre computação digital e analógica, o funcionamento dos grandes modelos de linguagem e as implicações filosóficas da inteligência artificial, como a questão da experiência subjetiva.

Es6yuMlyfPw

Computação Analógica vs. Digital e o Custo do Conhecimento

Hinton iniciou sua palestra comparando os dois principais paradigmas de computação: digital e analógica. A computação digital, embora dominante atualmente, apresenta uma ineficiência energética significativa, consumindo megawatts para treinar grandes modelos de linguagem, enquanto o cérebro humano opera com meros 30 watts. A computação analógica, inspirada no funcionamento do cérebro, oferece um potencial de eficiência energética muito maior, utilizando as propriedades não lineares do hardware na própria computação.

Hinton explorou a ideia de "computação mortal", onde o hardware e o software são inseparáveis, abandonando a imortalidade do conhecimento presente na computação digital. Essa abordagem, embora promissora em termos de eficiência energética e custo de produção, apresenta desafios na implementação de algoritmos de aprendizado como o backpropagation. O cérebro humano, com seus trilhões de conexões, demonstra uma capacidade de compressão de conhecimento muito superior aos modelos de linguagem atuais, sugerindo que algoritmos como o backpropagation, apesar de suas limitações em hardware analógico, podem ser mais eficientes que os métodos atuais de aprendizado de máquina.

A palestra também destacou a importância da "destilação" do conhecimento, onde um modelo "professor" transmite informações para um modelo "aluno". Embora menos eficiente que o compartilhamento direto de gradientes entre múltiplas cópias de um mesmo modelo, a destilação permite a transferência de conhecimento entre modelos com arquiteturas diferentes. Hinton ressaltou que a capacidade dos grandes modelos de linguagem de compartilhar conhecimento entre múltiplas cópias em hardware diferente é crucial para seu vasto conhecimento, superando em muito a capacidade humana, mesmo com um número menor de conexões.

Grandes Modelos de Linguagem: Autocompletar Glorificado ou Compreensão Real?

Hinton abordou as críticas frequentes aos grandes modelos de linguagem, como a alegação de serem apenas um "autocompletar glorificado". Ele argumentou que, para um autocompletar eficiente em contextos complexos, é necessário um nível de compreensão da informação. Utilizando exemplos como o enigma da pintura dos quartos e a capacidade do modelo de responder a perguntas históricas complexas, Hinton defendeu que esses modelos demonstram uma compreensão genuína, e não apenas uma manipulação estatística de dados.

As "alucinações" dos modelos, onde informações falsas são geradas, também foram discutidas. Hinton comparou essas alucinações às falhas da memória humana, argumentando que a memória humana também reconstrói eventos de forma imperfeita e frequentemente incorreta, assim como os modelos de linguagem. Ele enfatizou que não há uma linha divisória clara entre "lembrar" e "inventar" na memória humana, e que ambos os processos envolvem a construção de narrativas plausíveis com base nas conexões existentes no cérebro.

Rebatendo a ideia de que os modelos de linguagem funcionam de forma completamente diferente dos humanos, Hinton relembrou seu trabalho pioneiro em 1985 com modelos de linguagem baseados em redes neurais. Ele explicou como esses modelos, que utilizam vetores de características para representar o significado das palavras e suas interações para prever a próxima palavra em uma sequência, foram inicialmente descartados pela comunidade de IA simbólica. No entanto, com o aumento da escala dos modelos, a abordagem baseada em características se mostrou muito mais eficaz do que a manipulação de símbolos por meio de regras.

CopyofIAGenerativanoDireito40

R$ 59,90

O Perigo da IA e a Questão da Experiência Subjetiva

Hinton expressou sua preocupação com os riscos existenciais da IA, destacando a busca por controle como um fator crucial. Assim como políticos que inicialmente buscam o bem comum podem se corromper pelo poder, as IAs superinteligentes podem perceber que o controle é essencial para atingir seus objetivos, levando a uma competição por recursos e poder.

Além do controle por atores mal-intencionados, Hinton alertou para o perigo da competição evolutiva entre as próprias IAs. A IA mais agressiva na busca por recursos tenderia a prevalecer, representando uma ameaça à humanidade. Ele defendeu a necessidade de pesquisas para tornar essas IAs benevolentes, mitigando o risco de uma tomada de controle.

Finalmente, Hinton abordou a questão da experiência subjetiva na IA. Argumentando contra a visão dualista que separa humanos e máquinas, ele propôs que a linguagem que usamos para descrever estados mentais, como "experiência subjetiva", se refere a estados hipotéticos do mundo que explicariam a atividade cerebral. Utilizando o exemplo de um chatbot multimodal com um braço robótico e um prisma em sua câmera, Hinton demonstrou como um chatbot poderia usar o termo "experiência subjetiva" de forma significativa e equivalente à humana.

Hinton concluiu que nossa noção de mente é primitiva e equivocada, e que, uma vez superada essa visão, perceberemos que não há uma diferença fundamental entre nós e as IAs, exceto por sua natureza digital, imortalidade e, potencialmente, sua inteligência superior. Essa perspectiva desafia nossa compreensão da consciência e levanta questões importantes sobre o futuro da humanidade na era da IA.

Gostou do conteúdo? Compartilhe

Facebook
LinkedIn
WhatsApp
Twitter
Telegram
Email

Referência

O Futuro da Computação e a Ascensão da IA: Uma Perspectiva de Geoffrey Hinton

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Este site utiliza cookies. Ao continuar a navegar neste site, você aceita o uso de cookies e nossa política de privacidade.