Antropics lança Claude 3.5 com avanços em codificação e uso de computador

0

A Anthropic anuncia nesta terça-feira,22, duas novas ferramentas de inteligência artificial: o lançamento do Claude 3.5 Sonnet atualizado e o novo modelo Claude 3.5 Haiku. Ambos representam avanços significativos no desempenho de IA, especialmente em tarefas de seleção e automação. Além disso, a empresa revelou um recurso inovador que permite que a IA interaja diretamente com computadores, atualmente disponível em beta público.

O Claude 3.5 Sonnet atualizado é uma versão aprimorada que traz melhorias significativas, especialmente em ocasiões. O modelo agora alcança 49% no benchmark SWE-bench Verified, superando outros modelos de IA disponíveis publicamente, como o OpenAI o1-preview. Também apresentou avanços no uso de ferramentas, aumentando seu desempenho no TAU-bench, um teste de uso de ferramentas de agentes nos setores como varejo e aviação.

O Claude 3.5 Haiku é uma evolução do modelo rápido da Anthropic, projetado para oferecer acessibilidade e desempenho avançado com baixa latência. Ele supera o Claude 3 Opus, o maior modelo da geração anterior, em vários testes de inteligência, sendo especialmente eficaz em tarefas de compromisso. O Haiku será lançado até o final do mês.

Um dos recursos mais inovadores anunciados pela Anthropic é o uso de computador pelo Claude 3.5 Sonnet. Esse recurso permite que o modelo de IA interaja com computadores de maneira semelhante aos humanos — movendo o cursor, clicando em botões e preenchendo formulários. Essa habilidade está em fase beta e já está sendo explorada por empresas como Replit, que está desenvolvendo recursos para avaliar aplicativos automaticamente.

Embora ainda seja uma tecnologia emergente e propensa a erros, a expectativa é de que o uso do computador evolua rapidamente com o feedback dos desenvolvedores. Essa capacidade abre possibilidades para automatizar processos complexos, como a pesquisa de dados e a interação com softwares comuns, prometendo transformar a maneira como as empresas utilizam.

Preocupada com os riscos, a Anthropic implementou medidas de segurança para mitigar potenciais abusos dessa nova funcionalidade, como o uso indevido para desinformação ou fraude. A empresa está colaborando com institutos de segurança, como o US AI Safety Institute.

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.