A Oracle anunciou a disponibilidade geral do HeatWave GenAI,que inclui os primeiros modelos de linguagem de grande escala (LLMs) no banco de dados do setor, um armazenamento vetorial automatizado no banco de dados, processamento vetorial em expansão e a capacidade de ter conversas contextuais em linguagem natural informadas por conteúdo não estruturado.
Esses novos recursos permitem que clientes tragam o poder da IA generativa para seus dados corporativos sem precisar de experiência em IA ou de ter que mover dados para um banco de dados vetorial separado. O HeatWave GenAI já está disponível em todas as regiões do Oracle Cloud, na região dedicada do Oracle Cloud Infrastructure (OCI) e em nuvens sem custo extra para os clientes do HeatWave.
Com o HeatWave GenAI, os desenvolvedores podem criar um repositório vetorial para conteúdo corporativo com um único comando SQL, usando modelos de incorporação internos. Os usuários também podem realizar pesquisas em uma única etapa usando LLMs internos ou externos. Os dados não saem do banco de dados e, devido à escala e desempenho do HeatWave, não há necessidade de provisionar GPUs. Como resultado, os desenvolvedores podem reduzir a complexidade do aplicativo, aumentar o desempenho, melhorar a segurança dos dados e reduzir os custos.
"O impressionante ritmo de inovação do HeatWave continua com a adição do HeatWave GenAI aos recursos integrados existentes do HeatWave: HeatWave Lakehouse, HeatWave Autopilot, HeatWave AutoML e HeatWave MySQL", comenta Edward Screven, arquiteto-chefe corporativo da Oracle. "Os aprimoramentos de IA integrados e automatizados de hoje permitem que os desenvolvedores criem aplicativos de IA generativos avançados mais rapidamente, sem exigir experiência em IA ou mover dados. Os usuários agora têm uma maneira intuitiva de interagir com seus dados corporativos e obter rapidamente as respostas precisas de que precisam para seus negócios".
"O HeatWave GenAI torna extremamente fácil tirar proveito da IA generativa", completa Vijay Sundhar, CEO da SmarterD, plataforma de gerenciamento de segurança cibernética. "O suporte para LLMs no banco de dados e criação de vetores no banco de dados leva a uma redução significativa na complexidade do aplicativo, latência de inferência e, acima de tudo, nenhum custo adicional para usar os LLMs ou criar as incorporações. Esta é realmente a democratização da IA generativa e acreditamos que resultará na construção de aplicativos ainda melhores e em ganhos significativos de produtividade para nossos clientes".
Os novos recursos de IA generativa automatizados e integrados incluem:
1. Os LLMs no banco de dados simplificam o desenvolvimento de aplicativos de IA generativa a um custo mais baixo. Os clientes podem se beneficiar da IA generativa sem a complexidade da seleção e integração de LLM externo e sem se preocupar com a disponibilidade de LLMs em data centers de vários provedores de nuvem. Os LLMs no banco de dados permitem que os clientes pesquisem dados, gerem ou resumam conteúdos e executem a geração aumentada de recuperação (RAG) com o HeatWave Vector Store. Além disso, eles podem combinar IA generativa com outros recursos HeatWave integrados, como o AutoML, para criar aplicativos mais completos. O HeatWave GenAI também está integrado ao serviço OCI Generative AI para acessar modelos pré-treinados dos principais provedores de LLM.
2. O Automated In-database Vector Store permite que os clientes usem IA generativa com seus documentos de negócios sem mover dados para um banco de dados vetorial separado e sem experiência em IA. Todas as etapas para criar um repositório vetorial e incorporações vetoriais são automatizadas e executadas dentro do banco de dados, incluindo localizar documentos no armazenamento, analisá-los, gerar incorporações de forma altamente paralela e otimizada e inseri-los no armazenamento vetorial, tornando o HeatWave Vector Store eficiente e fácil de usar.
3. O processamento vetorial de expansão fornece resultados de pesquisa semântica muito rápidos sem qualquer perda de precisão. O HeatWave suporta um novo tipo de dados VECTOR nativo e uma implementação otimizada da função, permitindo que os clientes realizem consultas com SQL padrão. A representação híbrida na memória e a arquitetura scale-out do HeatWave permitem que o processamento vetorial seja executado em largura de banda próxima à memória. Como resultado, os clientes têm suas perguntas respondidas rapidamente. Os usuários também podem combinar a pesquisa semântica com outros operadores SQL para, por exemplo, unir várias tabelas com documentos diferentes e executar pesquisas de similaridade em todos os documentos.
4. O HeatWave Chat é um plug-in de código visual para MySQL Shell que fornece uma interface gráfica para o HeatWave GenAI e permite que os desenvolvedores façam perguntas em linguagem natural ou linguagem de consulta estruturada (SQL). O Lakehouse Navigator integrado permite que os usuários selecionem arquivos do armazenamento de objetos e criem um repositório vetorial. Os usuários podem pesquisar em todo o banco de dados ou restringir a pesquisa a uma pasta. O HeatWave Chat mantém o contexto com o histórico de perguntas feitas, citações dos documentos de origem e o prompt para o LLM. Isso facilita uma conversa contextual e permite que os usuários verifiquem a fonte das respostas geradas pelo LLM. Esse contexto é mantido no HeatWave e está disponível para qualquer aplicativo que use o HeatWave.
Criação de Vector Store e benchmarks de processamento vetorial
Criar um repositório vetorial para documentos nos formatos PDF, PPT, Word e HTML é até 23 vezes mais rápido com o HeatWave GenAI e com 1/4 do custo de uso da base de conhecimento comparado ao Amazon Bedrock.
Como demonstrado por um benchmark e usando uma variedade de consultas de pesquisa de similaridade em tabelas que variam de 1,6 GB a 300 GB de tamanho, o HeatWave GenAI é 30 vezes mais rápido que o Snowflake e custa 25% menos; 15 vezes mais rápido que o Databricks e custa 85% menos; e 18 vezes mais rápido que o Google BigQuery e custa 60% menos.
Um outro benchmark revela que os índices vetoriais no Amazon Aurora PostgreSQL com pgvector podem ter um alto grau de imprecisão e produzir resultados incorretos. Em contraste, o processamento de pesquisa de similaridade do HeatWave sempre fornece resultados precisos, tem tempo de resposta previsível, é executado em velocidade próxima à memória e é até 10 a 80 vezes mais rápido do que o Aurora usando o mesmo número de núcleos.