Estudo de 145 páginas da DeepMind sobre segurança da AGI pode não convencer os céticos – Go Finanças

Estudo de 145 páginas da DeepMind sobre segurança da AGI pode não convencer os céticos

Google DeepMind publicou na quarta-feira um extenso artigo sobre sua abordagem de segurança para AGI, definido de forma geral como IA capaz de realizar qualquer tarefa que um humano possa fazer. AGI é um tema controverso no campo da IA, com críticos sugerindo que é pouco mais do que um sonho irreal. Outros, incluindo importantes laboratórios de IA como o Anthropic, alertam que está logo ali, podendo resultar em danos catastróficos se não forem tomadas medidas para implementar salvaguardas adequadas.

O documento de 145 páginas da DeepMind, co-autorado pelo co-fundador da DeepMind, Shane Legg, prevê que AGI poderá chegar até 2030, e que pode resultar no que os autores chamam de “danos graves”. O artigo não define concretamente isso, mas dá o exemplo alarmante de “riscos existenciais” que “destroem permanentemente a humanidade”. “[Antecipamos] o desenvolvimento de uma AGI Excepcional antes do final da década atual”, escreveram os autores. “Uma AGI Excepcional é um sistema que tem uma capacidade correspondente pelo menos ao percentil 99 de adultos qualificados em uma ampla gama de tarefas não físicas, incluindo tarefas metacognitivas como aprender novas habilidades.”

Desde o princípio, o artigo contrasta a abordagem da DeepMind na mitigação do risco de AGI com a do Anthropic e da OpenAI. O Anthropic, segundo ele, coloca menos ênfase em “treinamento robusto, monitoramento e segurança”, enquanto a OpenAI é excessivamente otimista na “automação” de uma forma de pesquisa de segurança de IA conhecida como pesquisa de alinhamento. O artigo também questiona a viabilidade da IA superinteligente – IA que pode realizar trabalhos melhor do que qualquer ser humano. (Recentemente, a OpenAI afirmou que está direcionando seu foco da AGI para a superinteligência.) Sem “inovação arquitetônica significativa”, os autores da DeepMind não estão convencidos de que sistemas superinteligentes surgirão em breve – ou talvez nunca.

Imagem destacada

O artigo considera plausível, no entanto, que os paradigmas atuais permitirão “melhoria recursiva da IA”: um loop de retroalimentação positiva onde a IA conduz sua própria pesquisa de IA para criar sistemas de IA mais sofisticados. E isso poderia ser incrivelmente perigoso, afirmam os autores.

Em um nível mais amplo, o artigo propõe e advoga pelo desenvolvimento de técnicas para bloquear o acesso de maus atores a uma AGI hipotética, melhorar a compreensão das ações dos sistemas de IA e “fortalecer” os ambientes nos quais a IA pode agir. Reconhece que muitas das técnicas são incipientes e têm “problemas de pesquisa em aberto”, mas adverte contra ignorar os desafios de segurança que possivelmente estão no horizonte. “A natureza transformadora da AGI tem o potencial para benefícios incríveis, bem como para danos graves”, escrevem os autores. “Portanto, para construir AGI de forma responsável, é fundamental que os desenvolvedores de IA de ponta planejem proativamente mitigar danos graves.” Alguns especialistas discordam das premissas do artigo, no entanto.

Heidy Khlaaf, cientista-chefe de IA no Instituto AI Now, disse ao TechCrunch que ela acha que o conceito de AGI é muito mal-definido para ser “rigorosamente avaliado cientificamente”. Outro pesquisador de IA, Matthew Guzdial, professor assistente na Universidade de Alberta, disse que não acredita que a melhoria recursiva da IA seja realista no momento. “A melhoria recursiva é a base para os argumentos de singularidade da inteligência”, disse Guzdial ao TechCrunch, “mas nunca vimos evidências de que funcione”. Sandra Wachter, uma pesquisadora estudando tecnologia e regulamentação em Oxford, argumenta que uma preocupação mais realista é a IA se reforçar com “saídas imprecisas”. “Com a proliferação de saídas de IA gerativas na internet e a substituição gradual de dados autênticos, os modelos estão agora aprendendo com suas próprias saídas que estão cheias de inverdades ou alucinações”, disse ela ao TechCrunch. “Neste ponto, os chatbots são predominantemente usados para pesquisa e busca da verdade. Isso significa que estamos constantemente em risco de sermos alimentados com inverdades e acreditá-las porque são apresentadas de maneira muito convincente.” Abrangente como possa ser, o artigo da DeepMind parece improvável resolver os debates sobre quão realista é a AGI – e as áreas de segurança de IA que mais precisam de atenção urgente.

You may also like...