A poco de haber unificado sus desarrollos en el campo de la inteligencia artificial generativa bajo la denominación Gemini, Google anuncia su nueva IA llamada Gemma. Básicamente, es un conjunto de propuestas destinadas a los desarrolladores e investigadores, siendo que se despliega bajo la modalidad de código abierto. Además, son modelos más livianos.
Google Gemma: todo lo que tenés que saber sobre el nuevo modelo de IA
- Fue desarrollado por la división DeepMind de Google, que se especializa en IA. Según explicaron, este modelo está basado en Gemini. Básicamente, se trata de una variante más liviana y, como veremos, abierta.
- Gemma es de código abierto. En línea con LLaMA 2 de Meta, esa característica permite acceso a sus entrañas para que investigadores y especialistas en programación puedan revisar el sistema y adaptarlo a diversos usos.
- Respecto al modelo de Meta, Google afirma que el suyo es más potente para diversas tareas, incluyendo las operaciones matemáticas y la generación de código a través del lenguaje Python.
- Esta novedad de Google en el terreno de la IA apunta, como señalamos, a los desarrolladores. Además, permite que diversas organizaciones y empresas hagan un “uso comercial responsable”.
- Gemma se despliega en dos versiones: 2B y 7B. ¿Cuál es la diferencia? Tienen diversos tamaños y están entrenadas para realizar tareas diferentes. En el marco de este anuncio, Google lanza un kit de herramientas para que los developers echen mano a estos modelos.
- En cualquier caso, los modelos son lo suficientemente livianos como para correr sin problemas en una computadora, sin grandísimos requisitos de hardware.
Google apunta a la responsabilidad en los desarrollos de inteligencia artificial
El mencionado kit de desarrollo incluye una guía de buenas prácticas para trabajar con estas herramientas y modelos, señala el sitio Engadget. En ese orden, Google explica que usó técnicas automatizadas para eliminar información personal de los datos de entrenamiento, y que se valió de aprendizaje por refuerzo basado en comentarios humanos para garantizar comportamientos responsables en las variantes que se generen empleando a Gemma.
Recientemente, más de 200 compañías tecnológicas, organizaciones especializadas y universidades en Estados Unidos, entre ellas Google, se unieron para conformar el AI Safety Institute Consortium (AISIC), cuyo propósito es promover las prácticas responsables en la investigación y desarrollo de sistemas de IA. En el consorcio también figuran otros peces gordos de la industria, entre ellos Apple, Amazon, Meta y Microsoft.
Gina Raimondo, secretaria de Comercio de aquel país, anunció a los miembros del grupo y señaló que los participantes tendrán que seguir las acciones anteriormente indicadas por la orden ejecutiva del presidente de aquel país, Joe Biden, relativa a los avances en inteligencia artificial. “El gobierno de Estados Unidos tiene un papel importante que desempeñar en el establecimiento de estándares y el desarrollo de las herramientas que necesitamos para mitigar los riesgos y aprovechar el inmenso potencial de la inteligencia artificial”, dijo.
Aquellas directrices que avanzan en EE.UU. —otras similares se anunciaron en los países de la Unión Europea— son de “amplio espectro” y el flamante consorcio se centrará en llevarlas a la práctica. Eso incluye la formación de equipos especializados, evaluaciones periódicas, gestión de riesgos, seguridad y protección. También prevén que se inserten marcas de agua en contenido sintético, a fin de informar el carácter automatizado.