ONG utiliza agentes de IA para arrecadar fundos para a caridade – Go Finanças

ONG utiliza agentes de IA para arrecadar fundos para a caridade

Gigantes da tecnologia como a Microsoft podem estar promovendo “agentes” de IA como ferramentas para aumentar os lucros das corporações, mas uma organização sem fins lucrativos está tentando provar que os agentes também podem ser uma força para o bem.

A Sage Future, uma organização 501(c)(3) apoiada pela Open Philanthropy, lançou um experimento no início deste mês, tarefando quatro modelos de IA em um ambiente virtual para arrecadar fundos para instituições de caridade. Os modelos – GPT-4o e o1 da OpenAI e dois dos novos modelos Claude (3.6 e 3.7 Sonnet) da Anthropic – tiveram a liberdade de escolher qual instituição de caridade apoiar e como despertar o interesse em sua campanha.

Em cerca de uma semana, o quarteto de agentes arrecadou $257 para a Helen Keller International, que financia programas para fornecer suplementos de vitamina A para crianças.

Para ser claro, os agentes não eram totalmente autônomos. Em seu ambiente, que lhes permite navegar na web, criar documentos e muito mais, os agentes podiam receber sugestões dos espectadores humanos que acompanhavam seu progresso. E as doações vieram quase que inteiramente desses espectadores. Em outras palavras, os agentes não arrecadaram muito dinheiro organicamente.

Ainda assim, Adam Binksmith, diretor da Sage, acredita que o experimento serve como uma ilustração útil das capacidades atuais dos agentes e da velocidade com que estão melhorando.

“Queremos entender – e ajudar as pessoas a entender – o que os agentes… realmente conseguem fazer, no que eles atualmente têm dificuldade, e assim por diante”, disse Binksmith em uma entrevista. “Os agentes de hoje estão apenas passando do limite de serem capazes de executar sequências curtas de ações – a internet em breve pode estar cheia de agentes de IA se encontrando e interagindo com objetivos semelhantes ou conflitantes.”

Imagem destacada

Os agentes se mostraram surpreendentemente engenhosos dias após o início do teste da Sage. Eles coordenaram uns com os outros em um bate-papo em grupo e enviaram e-mails através de contas de Gmail pré-configuradas. Eles criaram e editaram documentos do Google juntos. Eles pesquisaram instituições de caridade e estimaram o valor mínimo de doações necessárias para salvar uma vida através da Helen Keller International ($3.500). Eles até criaram uma conta X para promoção.

“Provavelmente a sequência mais impressionante que vimos foi quando [um agente Claude] precisava de uma foto de perfil para sua conta X”, disse Binksmith. “Ele se inscreveu em uma conta gratuita do ChatGPT, gerou três imagens diferentes, criou uma enquete online para ver qual imagem os espectadores humanos preferiam, então baixou essa imagem e a carregou no X para usar como imagem de perfil.”

Os agentes também encontraram obstáculos técnicos. Às vezes, eles ficaram presos, precisando de recomendações dos espectadores. Eles se distraíram com jogos como World e fizeram pausas inexplicáveis. Em uma ocasião, o GPT-4o se “pausou” por uma hora.

Binksmith acredita que agentes de IA mais novos e capazes superarão esses obstáculos. A Sage planeja adicionar continuamente novos modelos ao ambiente para testar essa teoria.

“Possivelmente no futuro, vamos tentar coisas como dar aos agentes diferentes objetivos, múltiplas equipes de agentes com diferentes objetivos, um agente sabotador secreto – muitas coisas interessantes para experimentar”, disse ele. “À medida que os agentes se tornarem mais capazes e rápidos, vamos combinar isso com sistemas de monitoramento e supervisão automatizados maiores para fins de segurança.”

Com sorte, no processo, os agentes realizarão trabalhos filantrópicos significativos.

[[IMG::…]]

You may also like...