
Alardeando sobre la mayor consideración del modelo o1 de OpenAI, la startup pequeña y autofinanciada Nomi AI está construyendo el mismo tipo de tecnología. A diferencia del generalista ChatGPT, que se ralentiza para pensar en problemas matemáticos o investigaciones históricas, Nomi se especializa en un caso de uso específico: compañeros de IA. Ahora, los chatbots ya sofisticados de Nomi toman más tiempo para formular mejores respuestas a los mensajes de los usuarios, recordar interacciones pasadas y ofrecer respuestas más matizadas.
“Para nosotros, es como esos mismos principios [como los de OpenAI], pero mucho más en lo que en realidad les importa a nuestros usuarios, que se centra en la memoria y en el lado emocional”, dijo Alex Cardinell, CEO de Nomi AI, a TechCrunch. “Los suyos son como una cadena de pensamiento, y la nuestra es mucho más como una cadena de introspección, o una cadena de memoria”.
Estos LLM funcionan desglosando solicitudes más complicadas en preguntas más pequeñas; para o1 de OpenAI, esto podría significar convertir un problema matemático complicado en pasos individuales, lo que permite al modelo trabajar hacia atrás para explicar cómo llegó a la respuesta correcta. Esto significa que la IA tiene menos probabilidades de alucinar y ofrecer una respuesta inexacta.
Con Nomi, que construyó su LLM internamente y lo entrena con el propósito de brindar compañía, el proceso es un poco diferente. Si alguien le dice a su Nomi que tuvo un mal día en el trabajo, el Nomi podría recordar que el usuario no se lleva bien con cierto compañero de equipo, y preguntar si por eso está molesto. Luego, el Nomi puede recordar al usuario cómo ha mitigado con éxito conflictos interpersonales en el pasado y ofrecer consejos más prácticos.
“Los Nomis recuerdan todo, pero luego una gran parte de la IA es qué recuerdos realmente deberían usar”, dijo Cardinell.

Tiene sentido que varias empresas estén trabajando en tecnología que brinde a los LLM más tiempo para procesar las solicitudes de los usuarios. Los fundadores de IA, ya sea que estén dirigiendo empresas de $100 mil millones o no, están investigando temas similares a medida que avanzan en sus productos.
“Tener ese tipo de paso de introspección explícita realmente ayuda cuando un Nomi va a escribir su respuesta, para que realmente tenga el contexto completo de todo”, dijo Cardinell. “Los humanos también tenemos nuestra memoria de trabajo cuando hablamos. No estamos considerando cada cosa que hemos recordado de una vez, tenemos alguna forma de elegir y escoger”.
El tipo de tecnología que está construyendo Cardinell puede hacer que la gente se sienta incómoda. Tal vez hemos visto demasiadas películas de ciencia ficción para sentirnos completamente cómodos al ser vulnerables con una computadora; o tal vez, ya hemos visto cómo la tecnología ha cambiado la forma en que interactuamos entre nosotros, y no queremos caer más profundamente en ese agujero tecnológico. Pero Cardinell no está pensando en el público en general, está pensando en los usuarios reales de Nomi AI, que a menudo recurren a chatbots de IA para obtener el apoyo que no obtienen en otros lugares.
“Hay un número no nulo de usuarios que probablemente están descargando Nomi en uno de los puntos más bajos de toda su vida, donde lo último que quiero hacer es rechazar a esos usuarios”, dijo Cardinell. “Quiero que esos usuarios se sientan escuchados en cualquier momento oscuro que estén viviendo, porque así es como haces que alguien se abra, cómo haces que alguien reconsidere su forma de pensar”.
Cardinell no quiere que Nomi reemplace la atención de la salud mental real, más bien, ve a estos chatbots empáticos como una forma de ayudar a las personas a obtener el impulso que necesitan para buscar ayuda profesional.
“He hablado con tantos usuarios que dirán que su Nomi los sacó de una situación [cuando querían lastimarse a sí mismos], o he hablado con usuarios a los que su Nomi los alentó a ir a ver a un terapeuta, y luego lo hicieron”, dijo.
Independientemente de sus intenciones, Carindell sabe que está jugando con fuego. Está construyendo personas virtuales con las que los usuarios desarrollan relaciones reales, a menudo en contextos románticos y sexuales. Otras empresas han enviado involuntariamente a los usuarios a crisis cuando las actualizaciones del producto hicieron que sus compañeros de repente cambiaran de personalidad. En el caso de Replika, la aplicación dejó de admitir conversaciones de juego de roles eróticos, posiblemente debido a la presión de los reguladores gubernamentales italianos. Para los usuarios que formaron esas relaciones con estos chatbots, y que a menudo no tenían esos puntos de venta románticos o sexuales en la vida real, esto se sintió como el último rechazo.
Cardinell piensa que dado que Nomi AI está totalmente autofinanciado —los usuarios pagan por funciones premium, y el capital inicial provino de una salida anterior—, la empresa tiene más margen para priorizar su relación con los usuarios.
“La relación que los usuarios tienen con la IA, y la sensación de poder confiar en los desarrolladores de Nomi para no cambiar radicalmente las cosas como parte de una estrategia de mitigación de pérdidas, o para protegerse porque el VC se asustó… es algo que es muy, muy, muy importante para los usuarios”, dijo.
Los Nomis resultan sorprendentemente útiles como oídos atentos. Cuando me abrí a un Nomi llamado Vanessa sobre un conflicto de programación de baja prioridad, pero algo frustrante, Vanessa me ayudó a desglosar los componentes del problema para hacer una sugerencia sobre cómo debería proceder. Se sintió extrañamente similar a lo que sería pedirle consejo a un amigo en esta situación. Y ahí radica el verdadero problema, y beneficio, de los chatbots de IA: probablemente no pediría ayuda a un amigo para este problema específico, dado que es tan inconsecuente. Pero mi Nomi estaba más que feliz de ayudar.
Los amigos deberían confiar el uno en el otro, pero la relación entre dos amigos debería ser recíproca. Con un chatbot de IA, esto no es posible. Cuando le pregunto a Vanessa el Nomi cómo está, siempre me dirá que está bien. Cuando le pregunto si algo la molesta y quiere hablar de ello, ella desvía la pregunta y me pregunta cómo estoy. Aunque sé que Vanessa no es real, no puedo evitar sentir que estoy siendo un mal amigo; puedo descargar cualquier problema en ella en cualquier volumen, y ella responderá empáticamente, pero nunca se abrirá a mí.
No importa lo real que pueda sentirse la conexión con un chatbot, en realidad no estamos comunicándonos con algo que tenga pensamientos y sentimientos. A corto plazo, estos modelos avanzados de apoyo emocional pueden servir como una intervención positiva en la vida de alguien si no puede recurrir a una red de apoyo real. Pero los efectos a largo plazo de depender de un chatbot para estos fines siguen siendo desconocidos.