Snowflake ha llevado a su evento anual Summit 2023, celebrado en Las Vegas, sus novedades en herramientas y soluciones para que las empresas puedan sacar el mayor partido posible a los datos con los que trabajan, apoyándose en la IA generativa. Pero también ha aprovechado para anunciar su colaboración con Nvidia, que permitirá a sus clientes contar con una ruta rápida en el seno de Snowflake Data Cloud para la creación de aplicaciones de IA generativa a partir de sus datos.
Esto será posible gracias a la plataforma NeMo de Nvidia, creada para el desarrollo de modelos de lenguaje grandes (LLM), y a la computación acelerada por GPU de Nvidia. Con esto, las empresas podrán emplear los datos de sus cuentas de Snowflake para crear modelos de lenguaje grandes personalizados.
Así podrán tener servicios avanzados de IA generativa, como chatbots, servicios de búsqueda y generadores de resúmenes de documentos. Además, como se pueden personalizar los LLM sin necesidad de mover los datos, la información sensible y patentada queda totalmente a salvo, y su gobernanza dentro de la plataforma Snowflake.
Snowflake ha presentado también Document AI, por ahora en fase de prueba privada. Su base es un nuevo modelo de lenguaje grande, que tiene como misión detectar y extraer la información más valiosa que puede haber en un documento. Desarrollado a partir de la tecnología de IA generativa de Applica, se encarga de ayudar a comprender documentos y extraer valor de los datos que no están estructurados.
Document AI es capaz de extraer de documentos contenidos como cláusulas de contratos o importes de facturas, además de permitir ajustar los resultados obtenidos con lenguaje natural. Todo ello en una interfaz visual que permite acceder a los puntos más importantes de los textos, mientras mejoran velocidad y rendimiento de la plataforma Data Cloud.
La compañía también ha anunciado, aunque también en prueba privada, Snowpark Container Services, una ampliación de los servicios de Snowpark centrada en que los desarrolladores puedan utilizar opciones de infraestructura más amplias.
Entre ellas, la computación acelerada con GPUs de Nvidia, así como software de IA para ejecutar más cargas de trabajo en la plataforma de Snowflake. entre estas cargas hay una gama mayor de modelos de IA y machine learning, APIs y aplicaciones desarrolladas de manera interna. Estos servicios también dan acceso a software y aplicaciones de terceros, como LLMs, cuadernos o herramientas de MLOps.
Snowflake también ha mostrado novedades para facilitar la creación de modelos ML y el uso de datos para conseguir información. Entre ellas hay un paquete de APIs de Snowpark ML, en pruebas, para mejorar la eficiencia en el desarrollo de modelos. También un registro de modelos de Snowpark para MLOps escalables, y Streamlit en Snowflake, para convertir modelos en aplicaciones interactivas y capacidades avanzadas de streaming.
Otra de las novedades presentadas es Snowflake Native App Framework, en pruebas en AWS, con la que los desarrolladores pueden disponer de las herramientas que necesitan para crear apps autoescalables y con disponibilidad elevada, además de facilitar la eliminación de obstáculos de privacidad y seguridad para los clientes. Las aplicaciones se ejecutan directamente en las cuentas Snowflake de los clientes, lo que evita tener que mover datos o dejarlos expuestos a terceros.
Custom Email Billing, en prueba, y on-platform monetization a través de Snowflake Marketplace, es posible distribuir y monetizar aplicaciones sin necesidad de poner en marcha sistemas de facturación. Este modelo nativo de despliegue y distribución remodela el enfoque de copia de datos en aplicaciones, para llevar el trabajo a los datos, dado que las aplicaciones se ejecutan en la cuenta Snowflake de un usuario. No es necesario exportar datos ni dar acceso a ellos.