A IA superinteligente pode se tornar uma catástrofe — Vitalik Buterin

ИИ-военщина AI war# A superinteligência AI pode se tornar uma catástrofe — Vitalik Buterin

A humanidade não está lidando suficientemente bem com a harmonização dos valores globais para garantir que a inteligência artificial superinteligente trabalhe para o bem de todas as pessoas. Essa declaração foi feita pelo cofundador da Ethereum Vitalik Buterin.

Ele comentou a postagem do artista 3D com o nick Utah teapot.

Como a alinhamento de IA é até mesmo uma coisa? Todos estão sempre perguntando "alinhado a quê" e ninguém nunca tem uma resposta além de "valores humanos". Valores humanos coerentes e auto-consistentes não existem. Eu ainda não entendo. O que estamos pesquisando? É ridículo que isso esteja crescendo…

— chaleira de Utah 🫖 (@SkyeSharkie) 24 de agosto de 2025

«Como pode existir o conceito de alinhamento de IA? Eu sempre pergunto: “alinhamento com o que?”. Ninguém nunca responde nada além de “com os valores humanos”. Mas não existem valores humanos inteiros e coerentes. Eu ainda não entendo. O que estamos realmente pesquisando? É absurdo que isso se transforme em uma indústria crescente. Trabalho fictício», escreveu ele.

Buterin destacou que existem muitas coisas no mundo que vão contra os princípios éticos. Como exemplo, ele citou o assassinato ou a prisão de inocentes.

«[…] Ainda não somos bons o suficiente na coordenação para garantir que uma única superinteligência AI evite até isso», acrescentou o desenvolvedor.

O bule de Utah destacou que o desenvolvimento da inteligência artificial consensual está a caminhar na direção de restringir o acesso público ao desenvolvimento. Ao mesmo tempo, grandes empresas vendem versões dos seus sistemas de IA que fomentam fenómenos negativos e atuam como ferramentas de guerra.

«Estou profundamente preocupado com o fato de que a centralização do acesso às tecnologias de IA permite impor como questões de segurança aquilo que na verdade não é — por exemplo, as discussões em torno da “psicose” dos LLM. Assim, há o risco de prejudicar culturas únicas ou marginais e seus valores», observou o usuário.

Buterin compartilha muitas dessas preocupações.

"Acho que os maiores riscos virão de militares e outras estruturas que possuem grande poder, permitindo-lhes se isentarem das regras de segurança que, por padrão, se aplicam a todos os outros", acrescentou o cofundador do Ethereum.

O bule de Utah foi citado como exemplo pela startup de IA Anthropic. Ela está desenvolvendo versões alternativas de modelos "civis" e os fornece a governos. Estes podem ser utilizados para ações militares ou de inteligência.

Buterin destacou que a probabilidade de um cenário catastrófico para a humanidade devido à IA aumenta se houver apenas uma única inteligência artificial superinteligente, que possua vontade própria e capacidade de agir como sujeito.

Se o ambiente for pluralista, nenhuma das sistemas poderá controlar totalmente a situação. No entanto, para sua criação, apenas mecanismos de mercado não são suficientes. São necessários esforços intencionais, incluindo mudanças nas leis e incentivos que não agradarão às grandes corporações.

Recordamos que, em 2022, o ministro das tecnologias da informação da Índia, Rajiv Chandrasekhar, apelou ao desenvolvimento de padrões globais que garantam a segurança da IA para o ser humano.

ETH4.9%
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
0/400
Sem comentários
Faça trade de criptomoedas em qualquer lugar e a qualquer hora
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)