ManageEngine, divisão de gerenciamento de TI empresarial da Zoho Corporation, anunciou a adição da OpenAI Observability como um recurso nativo do Site24x7, sua abrangente plataforma de observabilidade baseada em nuvem. A oferta permite que os proprietários de aplicativos monitorem a utilização de diferentes modelos da OpenAI, enquanto acompanham o desempenho e as métricas de custo em tempo real – tudo em uma visão unificada. Esse poderoso recurso permite que as empresas aproveitem o potencial das tecnologias emergentes de IA, como o ChatGPT da OpenAI, para impulsionar a inovação e atingir seus objetivos estratégicos, ao mesmo tempo em que se preocupam com os custos.
À medida que instituições adotam cada vez mais o modelo de IA generativa da OpenAI e exploram o potencial do ChatGPT em diferentes equipes, torna-se necessário obter uma ampla compreensão das interações dos usuários de aplicativos baseados na tecnologia GPT. Esse entendimento permite a identificação de oportunidades valiosas para otimizar os modelos e aprimorar as experiências dos clientes. Além disso, monitorar de perto o uso da API e o consumo de tokens é essencial para gerenciar as despesas e melhorar o desempenho geral do app.
"Como a demanda pelo modelo GPT-4 da OpenAI continua crescendo, as empresas são obrigadas a repensar e renovar seus cenários de serviços existentes para aprimorar a experiência do usuário", afirma Srinivasan Raghavan, diretor de gerenciamento de produtos da Site24x7. "A observabilidade surge como uma força transformadora, capacitando as empresas a tirar o máximo proveito do GPT. Nosso compromisso em capacitar as organizações que usam APIs de GPT se reflete em nossos esforços para fornecer configuração, custo e monitoramento de desempenho sem esforço. Nosso objetivo é garantir que a eficiência e a eficácia permaneçam na vanguarda de nossa solução de gerenciamento de operações de TI orientada por IA."
O módulo OpenAI Observability integrado ao Site24x7 rastreia e analisa automaticamente várias métricas relacionadas à utilização do OpenAI, como uso de token, latência e erros. É fácil integrá-lo a aplicativos que usam módulos OpenAI e aproveitar o sistema de alerta integrado da plataforma para tomar medidas rápidas em caso de mau funcionamento.