A API da LLAMA foi anunciada pela Meta em sua primeira conferência de desenvolvedor da Llamacon AI na terça -feira. A IA da LLAMA está disponível em uma prévia limitada e permite que os desenvolvedores explorem produtos alimentados por vários modelo de lhama, de acordo com a Meta. Ele permite que os desenvolvedores criem serviços, ferramentas e aplicativos orientados por lhama quando combinados com meta SDKs. A Meta não compartilhou imediatamente os preços da API com o TechCrunch.
O lançamento da API ocorre quando a Meta parece manter uma vantagem no espaço do modelo aberto ferozmente competitivo. A API da LLAMA fornece ferramentas para ajuste fino e avaliar o desempenho do modelo LLAMA, começando com o lhama 3.3.3 8b. Os clientes podem gerar dados, treinar e, em seguida, usar o conjunto de avaliação da Meta na API da llama para testar a qualidade de seu modelo personalizado.
Créditos da imagem:
Meta
A Meta disse que não usará dados de clientes da API da LLAMA para treinar os próprios modelos da empresa, e que os modelos criados usando a API de llama podem ser transferidos para outro host.
Para os desenvolvedores de desenvolvedores, especificamente os modelos LLama 4, da Meta, lançados pela Meta, a API da LLAMA oferece opções de servir de modelo via parcerias com cerebras e groq. A Meta diz que essas opções “precoces” estarão “disponíveis mediante solicitação” para que os desenvolvedores prototipem os aplicativos de IA. Estamos ansiosos para estender parcerias com outros fornecedores, a fim de fornecer ainda mais opções para construir lhama.
Fuente