Gemini 2.0 ahora está disponible para todos los usuarios con mejoras en rendimiento y nuevas versiones, incluyendo Pro y Flash-Lite, en Google AI Studio y Vertex AI.
Google ha anunciado la disponibilidad general de Gemini 2.0, su familia de modelos de inteligencia artificial, para todos los usuarios a través de la aplicación Gemini en escritorio y móvil, así como en Google AI Studio y Vertex AI.
La actualización trae mejoras de rendimiento y nuevas versiones como Gemini 2.0 Flash, Flash-Lite y Pro Experimental, diseñadas para desarrolladores, ofreciendo modelos más eficientes, rápidos y con mayor capacidad de razonamiento.
Gemini 2.0 Flash: optimización para tareas de alta frecuencia
Presentado originalmente en Google I/O 2024, Gemini 2.0 Flash se ha convertido en una opción popular entre los desarrolladores debido a su eficiencia en tareas de alto volumen y alta frecuencia. Con una ventana de contexto de hasta 1 millón de tokens, el modelo permite procesar grandes volúmenes de información de manera rápida y efectiva.
Ahora, Gemini 2.0 Flash está disponible de forma general, con mejoras clave en rendimiento y capacidad multimodal. Entre las próximas funciones que se integrarán se incluyen generación de imágenes y conversión de texto a voz.
Los desarrolladores pueden acceder a Gemini 2.0 Flash a través de Google AI Studio y Vertex AI, mientras que los usuarios generales pueden probarlo en la aplicación Gemini.
Gemini 2.0 Pro Experimental: el mejor modelo de Google para programación y prompts complejos
Otra de las novedades destacadas es la introducción de Gemini 2.0 Pro Experimental, un modelo diseñado específicamente para ofrecer el mejor rendimiento en tareas de programación y resolución de prompts complejos.
Según Google, este modelo cuenta con la ventana de contexto más grande hasta la fecha: 2 millones de tokens, permitiéndole analizar y comprender grandes volúmenes de información de manera más precisa. Además, incluye la capacidad de integrarse con herramientas como Google Search y ejecución de código, facilitando tareas avanzadas para desarrolladores.
Gemini 2.0 Pro Experimental ya está disponible en Google AI Studio y Vertex AI, además de la aplicación Gemini para los usuarios avanzados.
Gemini 2.0 Flash-Lite: la opción más eficiente en costo y velocidad
Para aquellos que buscan una solución más accesible sin sacrificar calidad y velocidad, Google ha lanzado Gemini 2.0 Flash-Lite. Este modelo ofrece mejor rendimiento que su predecesor, 1.5 Flash, manteniendo el mismo costo y velocidad.
Gemini 2.0 Flash-Lite también incluye una ventana de contexto de 1 millón de tokens y soporte para entradas multimodales, lo que lo hace ideal para tareas de procesamiento masivo de datos a bajo costo.
Actualmente, está disponible en Google AI Studio y Vertex AI en vista previa pública.
Compromiso con la seguridad y el aprendizaje reforzado
Google ha implementado nuevas técnicas de aprendizaje por refuerzo en la familia Gemini 2.0, lo que permite que los modelos critiquen y mejoren sus propias respuestas. Esto ha llevado a mejoras en la precisión y en el manejo de temas sensibles.
Además, la empresa está utilizando red teaming automatizado para evaluar riesgos de seguridad y ataques de inyección de prompts indirectos, una técnica utilizada en ciberseguridad para manipular sistemas de IA.
Próximos pasos y disponibilidad
Los modelos de Gemini 2.0 seguirán evolucionando en los próximos meses con nuevas capacidades multimodales. Mientras tanto, los usuarios pueden probar los modelos a través de la aplicación Gemini o la API en Google AI Studio y Vertex AI.
Más detalles sobre precios y especificaciones técnicas están disponibles en el blog de Google para desarrolladores.
Relacionado