El martes de esta semana, Google lanzó un tsunami de anuncios en el marco de la conferencia de desarrolladores I/O. Tal vez el más sorprendente fue el del cofundador de la compañía, Sergey Brin, quien dijo que se llegará a la inteligencia artificial general (IAG, en inglés AGI), una tecnología hipotética de una máquina que posee la capacidad de comprender o aprender cualquier tarea intelectual que pueda realizar un ser humano, antes de 2030.
Brin, quien dejó su cargo ejecutivo en 2019 y ahora trabaja junto con los investigadores de IA para Google, también señaló que en un futuro habrá más de una IAG.
Por su parte, Demis Hassabis, director ejecutivo de Google DeepMind, apostó por la llegada de esta tecnología -que por ahora sigue pareciendo ciencia ficción- después de 2030, y también anotó que la IAG tendría que ser capaz de "comprender las emociones".
"Creo que será casi una decisión de diseño si quisiéramos imitar las emociones. Creo que no hay ninguna razón por la que no pudiera serlo en teoría, pero podría ser diferente, o podría no ser necesario, o de hecho, no deseable, que tengan el tipo de reacciones emocionales que tenemos los humanos", matizó en el coloquio con Brin que se celebró en Mountain View, en la sede de la compañía en California.
El cofundador hizo un repaso por su carrera en la empresa y señaló que cometió "muchos errores" con Google Glass, ya que no sabía nada sobre "cadenas de suministro de electrónica de consumo" ni sobre lo difícil que sería fabricar lentes inteligentes a un precio razonable.
No obstante, Brin señaló que cree firmemente en el formato de los lentes inteligentes actuales (potenciados con IA).
Horas antes, Google presentó su último proyecto para desarrollar lentes inteligentes Android XR, aproximadamente una década después del cierre del proyecto Google Glass.
Pero solo mostró un prototipo y no anunció fecha de salida a la venta.
Traductor de voz en meet
Sí hubo anuncios en detalle para Google Meet, que anunció que desde ahora puede traducir conversaciones en inglés y español manteniendo "la voz" del interlocutor gracias a la inteligencia artificial (IA).
De acuerdo Sundar Pichai, director ejecutivo de Google, esta nueva función ayuda a las personas a superar las barreras lingüísticas "casi en tiempo real", manteniendo la voz, tono y expresión de interlocutor.
El gigante tecnológico demostró esta nueva función con un video pregrabado en el que se vio una conversación entre una estadounidense y una latina que tenían una conversación (cada una en su lengua nativa) sobre el alquiler de una casa.
De momento, esta herramienta solo está disponible para suscriptores de los planes Google AI Pro y Ultra en versión beta, pero la empresa destacó que "pronto estará disponible para empresas".
Buscar en modo ia
Google dijo además que ese mismo día empezó a incluir en su buscador de Estados Unidos un "modo con inteligencia artificial (IA)", que fusiona su IA más potente de la compañía -Gemini 2.5- con todas las búsquedas que comprende la web.
Pichai describió este cambio como una "reinvención total" del buscador y destacó que ahora se podrán realizar "consultas más largas y complejas" usando un lenguaje natural y sin la necesidad de utilizar palabras clave.
"De hecho, los primeros usuarios que han probado la plataforma han respondido realizando consultas dos o tres veces más largas, a veces hasta cinco veces más largas que las búsquedas tradicionales", recalcó.
A diferencia del buscador convencional, el Modo IA utiliza una técnica "de abanico de consultas", que consiste en dividir la pregunta del usuario en subtemas y buscar una respuesta para cada una de esas divisiones, lo que, según la empresa, "permite profundizar en la web y encontrar contenido relevante y específico".
Otra característica de esta nueva manera de buscar es que es capaz de "visualizar información", por ejemplo, generando gráficas para explicar una respuesta.
Finalmente, Google permitirá que los internautas se prueben la ropa en sus propios modelos virtuales tras subir una foto de cuerpo entero. La función e lanzó el martes no garantizaba que las prendas disponibles en la primera versión se ajustaran a la perfección al cuerpo. Tampoco permite que los usuarios se prueben distintas tallas. "El propósito no es tanto que quede bien. La clave es poder ver cómo luce", anotó a Lilian Rincón, vicepresidenta de producto de compras para el consumidor de la empresa, antes de presentar la herramienta "Try it on".
La nueva función para Meet "imita" la voz del usuario al traducirla a otro idioma.