Google Gemini tiene ahora la capacidad de recordar

Gemini, el chatbot con IA de Google, acaba de ser ungido con una la capacidad de recordar. Y con la nueva memoria que habita en sus entretelas será capaz de recordar detalles sobre la vida personal del usuario, sobre su trabajo y sobre sus preferencias personales.
El nuevo Gemini con la función de memoria en sus entrañas ha hecho su puesta de largo entre los usuarios del chatbot de Google en su modalidad avanzada. Similar a la memoria de la que presume desde hace tiempo ChatGPT, la nueva funcionalidad de Gemini añade contexto a las conversaciones mantenidas con el usuario.
En este sentido, Gemini es ahora capaz de recordar, por ejemplo, las preferencias culinarias del usuario y si este le pide recomendaciones de restaurantes, sus sugerencias estarán lógicamente ajustadas a los gustos del usuario.
Gemini solo funciona con «prompts» en inglés
La nueva función de memoria de Gemini está por ahora disponible única y exclusivamente para los suscriptores de la versión avanzada del chatbot, que tiene en España un coste de 21,99 euros al mes. Según 9to5Google, la funcionalidad de marras no ha hecho aún su debut en las apps de Gemini para iOS y Android, por lo que solo funciona a través de la web.
Con su recién estrenada memoria Gemini será capaz de recordar detalles sobre las preferencias personales del usuario (como que prefiere el lenguaje sencillo a la jerga en los textos alumbrados por el chatbot de Google, o que cuando solicita un plan de viaje, quiere que se incluyan los costes por día).
La función de memoria de Google solo está disponible hoy por hoy para aquellos usuarios que confrontan a Gemini con «prompts» en lengua inglesa. Google subraya que esta funcionalidad puede ser desconectada por el usuario cuando así lo desee, pero que los recuerdos permanecerán en todo caso almacenados hasta que el usuario decida eliminarlos de manera manual.
El gigante de internet aclara, por otra parte, que los recuerdos almacenados por Gemini no se utilizarán en ningún caso para entrenar al modelo de IA de Google.
La capacidad de recordar de Gemini y otros modelos de IA puede ser potencialmente problemática si no se le ponen restricciones de ninguna clase. A principios de este año una investigación reveló sin ir más le lejos que los «hackers» eran capaces de imbricar falsos recuerdos en ChatGPT para robar los datos personales al usuario.