Notícias

Inteligência Artificial está "fora de controle" e magnatas da Tecnologia pedem para parerem elas

imagem padrao gdi
imagem padrao gdi

Mais de mil personalidades, incluindo Elon Musk, Steve Wozniak e Tristan Harris, do Center for Humane Technology, assinaram uma carta aberta pedindo a pausa imediata de pelo menos seis meses na criação de sistemas de inteligência artificial mais poderosos do que o GPT-4.

A carta argumenta que os sistemas de IA contemporâneos estão se tornando competitivos em tarefas gerais humanas, e que decisões sobre o seu desenvolvimento devem ser tomadas com cuidado.

A carta publicada nesta terça-feira (28) pede que “todos os laboratórios de IA parem imediatamente por pelo menos seis meses o treinamento de sistemas de IA mais poderosos do que o GPT-4”.

Os signatários argumentam que há um “nível de planejamento e gestão” que não está acontecendo na criação desses sistemas, e que o risco de perda de controle sobre a civilização é muito grande. Eles pedem que a pausa seja “pública e verificável e inclua todos os atores principais”.

Se essa pausa não puder ser implementada rapidamente, os governos devem intervir e instituir uma moratória.

Os signatários da carta incluem algumas pessoas especialistas em IA, engenheiros da Meta e Google, fundador e CEO da Stability AI, Emad Mostaque, além de pessoas fora do setor de tecnologia, como um eletricista e uma esteticista. A carta também destaca as ausências, como a da OpenAI, responsável pelo GPT-4.

O CEO da OpenAI, Sam Altman, disse em entrevista ao WSJ que a empresa ainda não começou a treinar o GPT-5 e que prioriza a segurança no desenvolvimento. Altman argumenta que é melhor começar agora, quando os riscos são relativamente baixos, do que lançar um produto sem tempo suficiente para que a sociedade se adapte.

A carta dos mais de mil signatários é um sinal de que a discussão sobre os riscos da inteligência artificial está cada vez mais presente no debate público.

A pausa pedida pelos especialistas pode ser vista como uma forma de garantir que os riscos sejam cuidadosamente avaliados antes que novos sistemas de IA sejam lançados. Ao mesmo tempo, a ausência de algumas empresas e especialistas importantes no setor de IA mostra que nem todos concordam com a ideia de uma pausa.

É provável que o debate em torno desse tema continue nos próximos meses e anos, à medida que novos sistemas de IA são desenvolvidos.

É difícil prever qual será o impacto da carta dos signatários a longo prazo. Pode ser que os governos decidam intervir e instituir uma moratória, mas também é possível que as empresas continuem a desenvolver sistemas de IA mesmo sem o apoio desses especialistas. O debate em torno da segurança da inteligência artificial deve continuar, no entanto, e é provável que a discussão se intensifique à medida que a tecnologia avança.