Google ha lanzado su modelo para IA liviano Gemma basado en Gemini, un modelo que pretende ejecutarse de forma local en dispositivos como ordenadores, centros de datos y servidores. Pero también ha anunciado su compatibilidad con el hardware de NVIDIA y la biblioteca NVIDIA TensorRT-LLM, algo que la compañía ha aprovechado para ofrecer Inteligencia Artificial casera gracias al hardware de sus gráficas RTX. Con este soporte NVIDIA TensorRT-LLM por parte de esta IA de Google será posible añadir Gemma a su tecnología Chat con RTX.
Gracias a Chat con RTX y al modelo liviano Gemma de Google, los usuarios podrán obtener capacidades de Inteligencia Artificial generativa cuando ejecutan hardware NVIDIA RTX. Una característica que da acceso a esta tecnología en más de 100 millones de GPUs NVIDIA que hay disponibles en equipos PC por todo el mundo. Chat con RTX permitirá a los usuarios personalizar su propio chat con Inteligencia Artificial y sus propios datos proporcionando respuestas de manera rápida y eficaz directamente desde tu ordenador.
Chat con RTX prescindirá de servicios en la nube y te ofrecerá mayor seguridad al trabajar con datos más sensibles, sin necesidad de una conexión a internet. Aun así, los desarrolladores también podrán ejecutar Gemma en las GPU en la nube, como las instancias de Google Cloud basadas en las GPU de NVIDIA H100, permitiendo personalizar e implementar el modelo Gemma optimizado para sus propias aplicaciones.
Fin del Artículo. ¡Cuéntanos algo en los Comentarios!