Pesquisador-chefe da OpenAI acredita que modelos de IA de ‘raciocínio’ poderiam ter chegado décadas atrás – Go Finanças

Pesquisador-chefe da OpenAI acredita que modelos de IA de ‘raciocínio’ poderiam ter chegado décadas atrás

Noam Brown, que lidera a pesquisa de raciocínio de IA na OpenAI, diz que certas formas de modelos de IA de “raciocínio” poderiam ter chegado 20 anos antes se os pesquisadores tivessem “conhecido a abordagem certa” e algoritmos.

“Houve várias razões pelas quais essa direção de pesquisa foi negligenciada”, disse Brown durante um painel na conferência GTC da Nvidia em San Jose na quarta-feira. “Eu percebi ao longo da minha pesquisa que, bem, algo está faltando. Os humanos passam muito tempo pensando antes de agir em uma situação difícil. Talvez isso seja muito útil [na IA].”

Brown estava se referindo ao seu trabalho em IA de jogos na Universidade Carnegie Mellon, incluindo o Pluribus, que derrotou profissionais humanos de elite no pôquer. A IA que Brown ajudou a criar era única na época no sentido de que “raciocinava” através de problemas em vez de tentar uma abordagem mais bruta.

Ele também é um dos arquitetos por trás do o1, um modelo de IA da OpenAI que emprega uma técnica chamada inferência de tempo de teste para “pensar” antes de responder às consultas. A inferência de tempo de teste envolve a aplicação de computação adicional à execução de modelos para impulsionar uma forma de “raciocínio”. Em geral, os modelos de raciocínio são mais precisos e confiáveis do que os modelos tradicionais, particularmente em domínios como matemática e ciência.

Durante o painel, Brown foi questionado se a academia poderia esperar realizar experimentos em escala como laboratórios de IA como a OpenAI, dado o geral falta de acesso a recursos computacionais das instituições. Ele admitiu que tem se tornado mais difícil nos últimos anos à medida que os modelos se tornaram mais intensivos em computação, mas que acadêmicos podem fazer um impacto explorando áreas que exigem menos computação, como o design de arquitetura de modelos.

“[[T]here is an opportunity for collaboration between the frontier labs [and academia],” said Brown. “Certainly, the frontier labs are looking at academic publications and thinking carefully about, OK, does this make a compelling argument that, if this were scaled up further, it would be very effective. If there is that compelling argument from the paper, you know, we will investigate that in these labs.”

Os comentários de Brown surgem em um momento em que a administração Trump está fazendo cortes profundos na concessão de subsídios científicos. Especialistas em IA, incluindo o laureado com o Nobel Geoffrey Hinton, criticaram esses cortes, dizendo que podem ameaçar os esforços de pesquisa em IA tanto doméstica quanto no exterior.

Imagem destacada

Boston, MA

|

15 de julho

REGISTRE-SE AGORA

Brown destacou a avaliação de benchmark de IA como uma área onde a academia poderia ter um impacto significativo. “O estado dos benchmarks em IA é realmente ruim, e isso não requer muita computação para fazer”, disse ele.

Como já escrevemos antes, os benchmarks populares de IA hoje tendem a testar conhecimento esotérico e dar pontuações que se correlacionam mal com a proficiência em tarefas que a maioria das pessoas se importa. Isso levou a uma confusão generalizada sobre as capacidades e melhorias dos modelos.

Atualizado às 16:06 PT: Uma versão anterior deste texto sugeria que Brown estava se referindo a modelos de raciocínio como o1 em seus comentários iniciais. Na verdade, ele estava se referindo ao seu trabalho em IA de jogos antes de seu tempo na OpenAI. Lamentamos o erro.

You may also like...