Oracle anunció “HeatWave GenAI” la primera solución de la industria en ofrecer grandes modelos de lenguaje
HeatWave GenAI procesa vectores 30 veces más rápido que Snowflake, 18 veces más rápido que Google BigQuery y 15 veces más rápido que Databricks.
Oracle anunció la disponibilidad de HeatWave GenAI, que incluye los primeros grandes modelos de lenguaje (LLM) del sector. Este sistema cuenta con un almacén de vectores automatizado en la base de datos, procesamiento de vectores escalable horizontalmente y la capacidad de mantener conversaciones contextuales en lenguaje natural basadas en contenido no estructurado.
Estas funcionalidades le permiten a los clientes llevar el poder de la IA generativa a sus datos empresariales sin necesidad de contar con experiencia en IA ni de migrar datos a una base de datos vectorial. Con HeatWave GenAI, los desarrolladores pueden crear un almacén de vectores para contenido empresarial no estructurado con un solo comando SQL, mediante modelos de incrustación incorporados.
Los usuarios pueden realizar búsquedas en lenguaje natural en un solo paso debido a los LLM externos o la base de datos. Los datos no salen de la base de datos y, debido a la escala y el rendimiento extremos de HeatWave, no es necesario aprovisionar GPU. Como resultado, los desarrolladores pueden reducir la complejidad de las aplicaciones, impulsar el rendimiento, mejorar la seguridad de los datos y reducir costos.
"El asombroso ritmo de innovación de HeatWave continúa con la incorporación de HeatWave GenAI a las capacidades integradas existentes de HeatWave: HeatWave Lakehouse, HeatWave Autopilot, HeatWave AutoML y HeatWave MySQL.Las actuales mejoras integradas y automatizadas de la IA permiten que los desarrolladores creen aplicaciones ricas en IA generativa con mayor rapidez, sin necesidad de tener conocimientos previos en el asunto ni de migrar datos” explicó Edward Screven, arquitecto jefe corporativo de Oracle.
Entre las nuevas funcione se incluyen:
- Los LLM en base de datos simplifica el desarrollo de aplicaciones de IA generativa, reduciendo costos al eliminar la necesidad de integrar modelos externos. Permite a los clientes buscar, generar y resumir contenidos usando modelos de la base de datos, y aplicar generación aumentada por recuperación (RAG) con HeatWave Vector Store. También se integra con AutoML de HeatWave y OCI Generative AI para acceder a modelos pre entrenados
- El almacenamiento vectorial automatizado en la base de datos permite a los clientes usar IA generativa con sus documentos empresariales sin trasladar datos ni necesitar conocimientos previos de IA. Todo el proceso, desde la detección y análisis de documentos hasta la generación de incrustaciones vectoriales y su almacenamiento, se automatiza dentro de la base de datos. HeatWave Vector Store es eficiente y fácil de usar, mejorando la precisión de las respuestas al utilizar un almacén vectorial para RAG y mitigar las alucinaciones de los modelos de lenguaje natural.
- El procesamiento vectorial a escala ofrece procesamiento vectorial a escala para búsquedas semánticas rápidas y precisas con SQL estándar. Su arquitectura híbrida en memoria y escalable permite ejecutar operaciones con alta velocidad y paralelización en hasta 512 nodos, garantizando respuestas rápidas y flexibilidad para integrar búsquedas semánticas con otras operaciones SQL.
- HeatWave Chat es un complemento para MySQL Shell que ofrece una interfaz gráfica para HeatWave GenAI. Permite a los desarrolladores hacer preguntas en lenguaje natural o SQL. Incluye Lakehouse Navigator para seleccionar archivos del almacenamiento de objetos y crear almacenes de vectores. HeatWave mantiene el contexto con historial de preguntas y citas de documentos fuente, facilitando conversaciones contextuales y verificación de respuestas generadas por el modelo de lenguaje natural (LLM).
- Patrones de creación de almacenes vectoriales y procesamiento de vectores, la creación de un almacén vectorial para documentos en formato PDF, PPT, WORD y HTML es hasta 23 veces más rápida con HeatWave GenAI y a 1/4 del costo de utilizar Knowledge base para Amazon Bedrock.
Según demuestra un benchmark, HeatWave GenAI es 30 veces más rápido que Snowflake y cuesta un 25 por ciento menos, 15 veces más rápido que Databricks y cuesta un 85 por ciento menos, y 18 veces más rápido que Google BigQuery y cuesta un 60 por ciento menos.
HeatWave GenAI está disponible inmediatamente en todas las regiones de Oracle Cloud, Oracle Cloud Infrastructure (OCI) Dedicated Region y en todas las nubes sin costo adicional para los clientes de HeatWave.
"El soporte para LLM y creación de vectores en la base de datos se traduce en una reducción significativa de la complejidad de las aplicaciones, una latencia de inferencia predecible y, sobre todo, ningún costo adicional para nosotros al utilizar los LLM o crear las incrustaciones. Esto es realmente la democratización de la IA generativa y creemos que dará lugar al desarrollo de aplicaciones más ricas con HeatWave GenAI y ganancias significativas en la productividad de nuestros clientes". señaló Vijay Sundhar, director ejecutivo de SmarterD.