Meta tem acordos de compartilhamento de receita com anfitriões do modelo de IA Llama, revela documento de arquivamento
Num post de blog em julho passado, o CEO do Meta, Mark Zuckerberg, afirmou que “vender acesso” aos modelos de IA Llama do Meta “não é o modelo de negócios” do Meta. No entanto, o Meta realmente obtém algum dinheiro com o Llama através de acordos de compartilhamento de receita, de acordo com um documento judicial recém-divulgado.
O documento, apresentado pelos advogados dos autores da ação por violação de direitos autorais Kadrey v. Meta, na qual o Meta é acusado de treinar seus modelos de Llama em centenas de terabytes de e-books pirateados, revela que o Meta “compartilha uma porcentagem da receita” que as empresas que hospedam seus modelos de Llama geram a partir dos usuários desses modelos.
Não está indicado no documento quais hosts específicos pagam ao Meta. No entanto, o Meta lista vários parceiros de host do Llama em vários posts de blog, incluindo AWS, Nvidia, Databricks, Groq, Dell, Azure, Google Cloud e Snowflake.
Os desenvolvedores não são obrigados a usar um modelo Llama por meio de um parceiro de host. Os modelos podem ser baixados, ajustados e executados em uma variedade de hardware diferente. Mas muitos hosts oferecem serviços adicionais e ferramentas que tornam a implantação dos modelos de Llama mais simples e fácil.
Zuckerberg mencionou a possibilidade de licenciar o acesso aos modelos de Llama durante uma teleconferência de resultados em abril passado, quando também mencionou a monetização do Llama de outras maneiras, como através de serviços de mensagens comerciais e anúncios em “interações de IA”. Mas ele não detalhou especificidades.

“Se você é alguém como a Microsoft ou a Amazon ou o Google e vai basicamente revender esses serviços, achamos que devemos receber uma parte da receita”, disse Zuckerberg. “Portanto, esses são os acordos que pretendemos fazer, e começamos a fazer isso um pouco.”
Mais recentemente, Zuckerberg afirmou que a maior parte do valor que o Meta obtém do Llama vem na forma de melhorias nos modelos pela comunidade de pesquisa de IA. O Meta utiliza modelos de Llama para alimentar vários produtos em suas plataformas e propriedades, incluindo o assistente de IA do Meta, Meta AI.
O fato de o Meta poder gerar receita de uma forma bastante direta com o Llama é significativo porque os autores da ação Kadrey v. Meta afirmam que o Meta não apenas usou obras piratas para desenvolver o Llama, mas facilitou a violação por “semear” ou enviar essas obras. Os autores alegam que o Meta utilizou métodos furtivos de torrenting para obter e-books para treinamento e, no processo – devido à maneira como o torrenting funciona – compartilhou os e-books com outros torrenters.
O Meta planeja aumentar significativamente seus gastos de capital este ano, em grande parte devido aos seus crescentes investimentos em IA. Em janeiro, a empresa anunciou que gastaria de US$ 60 bilhões a US$ 80 bilhões em CapEx em 2025 – aproximadamente o dobro do CapEx do Meta em 2024 – principalmente em centros de dados e no crescimento das equipes de desenvolvimento de IA da empresa.
Provavelmente para compensar parte dos custos, o Meta está considerando lançar um serviço de assinatura para o Meta AI que adicionará capacidades não especificadas ao assistente.