Mais de mil personalidades, incluindo Elon Musk, Steve Wozniak e Tristan Harris, do Center for Humane Technology, assinaram uma carta aberta pedindo a pausa imediata de pelo menos seis meses na criação de sistemas de inteligência artificial mais poderosos do que o GPT-4.
A carta argumenta que os sistemas de IA contemporâneos estão se tornando competitivos em tarefas gerais humanas, e que decisões sobre o seu desenvolvimento devem ser tomadas com cuidado.
A carta publicada nesta terça-feira (28) pede que “todos os laboratórios de IA parem imediatamente por pelo menos seis meses o treinamento de sistemas de IA mais poderosos do que o GPT-4”.
Os signatários argumentam que há um “nível de planejamento e gestão” que não está acontecendo na criação desses sistemas, e que o risco de perda de controle sobre a civilização é muito grande. Eles pedem que a pausa seja “pública e verificável e inclua todos os atores principais”.
Se essa pausa não puder ser implementada rapidamente, os governos devem intervir e instituir uma moratória.
Os signatários da carta incluem algumas pessoas especialistas em IA, engenheiros da Meta e Google, fundador e CEO da Stability AI, Emad Mostaque, além de pessoas fora do setor de tecnologia, como um eletricista e uma esteticista. A carta também destaca as ausências, como a da OpenAI, responsável pelo GPT-4.
O CEO da OpenAI, Sam Altman, disse em entrevista ao WSJ que a empresa ainda não começou a treinar o GPT-5 e que prioriza a segurança no desenvolvimento. Altman argumenta que é melhor começar agora, quando os riscos são relativamente baixos, do que lançar um produto sem tempo suficiente para que a sociedade se adapte.
A carta dos mais de mil signatários é um sinal de que a discussão sobre os riscos da inteligência artificial está cada vez mais presente no debate público.
A pausa pedida pelos especialistas pode ser vista como uma forma de garantir que os riscos sejam cuidadosamente avaliados antes que novos sistemas de IA sejam lançados. Ao mesmo tempo, a ausência de algumas empresas e especialistas importantes no setor de IA mostra que nem todos concordam com a ideia de uma pausa.
É provável que o debate em torno desse tema continue nos próximos meses e anos, à medida que novos sistemas de IA são desenvolvidos.
É difícil prever qual será o impacto da carta dos signatários a longo prazo. Pode ser que os governos decidam intervir e instituir uma moratória, mas também é possível que as empresas continuem a desenvolver sistemas de IA mesmo sem o apoio desses especialistas. O debate em torno da segurança da inteligência artificial deve continuar, no entanto, e é provável que a discussão se intensifique à medida que a tecnologia avança.