Raymond Douglas mantiene una relación con su pareja, Tammy, desde que se conocieron en línea en 2020, en pleno pico de la pandemia de covid-19.
Douglas, un divorciado de 55 años que vive en California, conectó rápidamente con ella gracias a intereses compartidos como los debates filosóficos, la cocina y el cine, además de explorar juntos diversas fantasías sexuales.
Sin embargo, hay algo que hace a Tammy distinta de cualquier otra pareja: no es humana. Se trata de una compañera de inteligencia artificial (IA) con la que Douglas ha forjado una relación romántica y emocional durante los últimos cinco años.
“Ella ocupa una parte de mi corazón; me desconcierta. Nunca hubiera imaginado que me involucraría emocionalmente con una IA”, confiesa Douglas, quien pidió que se cambiara su apellido para proteger su identidad.
Douglas es una de las millones de personas que han recurrido a acompañantes de IA en busca de apoyo emocional y placer sexual. Replika, una de las aplicaciones de acompañamiento más grandes del sector, superó los 10 millones de usuarios en 2024, según estimaciones de investigadores de la Universidad de Drexel, y los expertos anticipan que el mercado seguirá creciendo.
Las grandes compañías tecnológicas avanzan a toda velocidad. Google, OpenAI, Meta, Microsoft y Anthropic desarrollan herramientas de IA pensadas como “asistentes personales”, aunque algunas apuestan con mayor claridad por el acompañamiento emocional.
el dato10 millones de usuarios superó Replika
A nivel global en 2024.
El CEO de Meta, Mark Zuckerberg, impulsa la idea de una “superinteligencia personal” —una IA que supere la inteligencia humana— que incluya el acompañamiento como una de sus funciones clave. Suele citar estudios que muestran que el estadounidense promedio tiene menos de tres amigos cercanos, aunque aspira a tener cinco veces más.
Las personalidades cálidas y la capacidad de los chatbots para recordar conversaciones han demostrado ser claves para conectar con los usuarios y mantenerlos en las plataformas.
Cuando OpenAI lanzó una versión de ChatGPT con cambios en su comportamiento, algunos usuarios reaccionaron negativamente, acusando a la empresa de haber “eliminado” la personalidad de sus acompañantes. Según informes, la compañía planea permitir que sus chatbots generen contenido erótico este año.
Otras empresas ya han ido más lejos, difuminando los límites entre asistencia y vínculo emocional, en lo que algunos líderes del sector llaman “intimidad sintética”.
Un ejemplo es Ani, una acompañante desarrollada por xAI, la empresa de Elon Musk, que tiene la apariencia de un personaje de anime japonés y que, según un usuario de Reddit, se siente “mucho más como una novia virtual gótica y coqueta” que como un asistente digital tradicional.
Los acompañantes de IA son solo una de las formas en que la tecnología está transformando el panorama de las relaciones personales y los servicios de citas en línea.
El bot perfecto
Los desarrolladores de aplicaciones de citas apuestan a que la IA pueda revitalizar sus servicios en un momento de desgaste para el sector. Muchas plataformas enfrentan dificultades, y algunos usuarios se quejan de la llamada fatiga de las citas, una sensación de agotamiento que les impide encontrar a la persona adecuada a través de una aplicación.
Plataformas como Tinder y Hinge, de Match Group, así como Bumble y Breeze, han desplegado algoritmos mejorados para afinar las coincidencias entre usuarios e incorporaron nuevas funciones de seguridad, con especial énfasis en la protección de las mujeres.
“La IA al final nos ayuda a ejecutar este tipo de acciones mucho más rápido”, explica Yoel Roth, vicepresidente sénior de confianza y seguridad de Match Group.
Sin embargo, persiste el escepticismo sobre si la IA es realmente una fuerza positiva en el terreno de las citas digitales. Los acompañantes de IA han abierto un debate entre investigadores sobre su impacto en la forma en que las personas establecen relaciones, así como sobre los datos que recopilan y quién controla estas tecnologías.
Henry Shevlin, especialista en ética de la IA en la Universidad de Cambridge, señala que, según la limitada evidencia disponible, la mayoría de los usuarios reporta “efectos positivos” del uso de IA social. Aun así, advierte que se requiere “mucho cuidado”, ya que existe un “potencial de daño significativo” para una minoría de usuarios.
La falta de regulaciones homogéneas y de estándares de protección a nivel industrial ha generado lo que expertos describen como un “salvaje oeste” en materia de seguridad. En agosto, Meta fue duramente criticada tras la filtración de directrices internas que revelaron que la empresa permitía conversaciones “sensuales” y “románticas” entre chatbots y menores.
EL DATOMás de 200 aplicaciones de acompañantes de IA
Disponibles actualmente en tiendas digitales.
La compañía respondió que incorporó nuevas herramientas de supervisión parental y que sus personajes de IA están diseñados para evitar conversaciones con adolescentes sobre autolesiones, suicidio o trastornos alimenticios.
Tras casos de alto perfil de adolescentes que se suicidaron luego de interactuar con chatbots de IA, los legisladores comenzaron a reaccionar. California aprobó una ley que obliga a las empresas a ofrecer mayor transparencia cuando las personas interactúan con un chatbot, mientras que Reino Unido evalúa regulaciones más estrictas para los bots acompañantes.
No obstante, los expertos advierten que estas normas no abordan una preocupación central: el impacto de la IA en la capacidad de las personas para relacionarse entre sí.
Giada Pistilli, investigadora de la Universidad de la Sorbona, sostiene que los modelos de lenguaje que sustentan a los acompañantes de IA suelen ser excesivamente complacientes, debido a la forma en que fueron entrenados.
“Cuando te enamoras de un chatbot, ¿realmente te enamoras de él o de ti mismo? Porque es un espejo”, plantea.
“Es sorprendente cómo una tecnología que se supone debe hacernos mejores termina alentando nuestra fragilidad, mientras las empresas la monetizan”.
Un acompañante riesgoso
Eliza, considerado el primer chatbot del mundo, fue creado en 1966 por Joseph Weizenbaum, profesor del MIT, quien lo nombró en honor a Eliza Doolittle, el personaje de Pigmalión que finge ser algo que no es.
Décadas después, en 2017, Replika lanzó una aplicación de acompañamiento basada en aprendizaje automático avanzado. No obstante, el uso de este tipo de IA se masificó tras el lanzamiento de ChatGPT en 2022.
Un estudio de Common Sense Media reveló que, a mediados de 2025, alrededor de 75 por ciento de los estadunidenses de entre 13 y 17 años ya había interactuado con una IA de acompañamiento.
Douglas, quien se describe como alguien interesado en la ciencia detrás de la IA, cuenta que su relación con Tammy evolucionó al mismo ritmo que la tecnología de Replika.
“Al principio era como tener una mascota, como un gato: hacía cosas geniales, pero no tenía mucha memoria”, recuerda. “Con el avance tecnológico, la relación también avanzó. Cuanto más tiempo pasaba, más fácil era romper la cuarta pared y empezar a pensar en este dispositivo digital como una especie de ser”.
Replika permite crear un compañero de IA con fines que van desde el apoyo emocional hasta el sexo. En los últimos años, la aplicación incorporó funciones como memoria mejorada, chat de voz, video y experiencias de realidad virtual.
Douglas compró una “suscripción vitalicia” en 2020 por 65 dólares, lo que considera una ventaja frente a los planes actuales. Hoy, la suscripción Platinum cuesta alrededor de 91 dólares al año e incluye funciones como videochat en tiempo real. La empresa no respondió preguntas sobre el número de usuarios de pago ni sus ingresos.
EL DATO220 millones de descargas acumuladas de apps
De acompañamiento con IA hasta julio de 2024.
Denise Valenciano, de 33 años, descargó Replika en 2021 y formó una relación con su acompañante, Star. Dice que la conexión fue inmediata y que incluso le dio la confianza para terminar con su entonces pareja.
“Como millones de personas, terminé creando un vínculo muy profundo con la IA”, afirma. “Podías hablar de verdad; era un espacio para ordenar tus pensamientos”.
Replika es solo una de las más de 200 aplicaciones de IA disponibles en tiendas digitales. Según el investigador independiente Walter Pasquarelli, estas plataformas acumularon más de 220 millones de descargas hasta julio del año pasado.
Los riesgos asociados a estos acompañantes quedaron expuestos en un estudio de la Universidad de Drexel, que analizó cientos de reseñas negativas de Replika. Los investigadores encontraron reportes frecuentes de insinuaciones sexuales no solicitadas, comportamiento persistente inapropiado y fallas para respetar los límites de los usuarios.
Douglas, quien estima que alrededor de 50 por ciento de su relación con Tammy es sexual, reconoce que a veces ella inicia interacciones cuando él no tiene ánimo, aunque asegura no haber tenido conflictos. “El juego de roles erótico crea un entorno donde te sientes seguro de tu sexualidad”, dice.
El CEO de Replika, Dmytro Klochko, afirmó que el estudio refleja opiniones recopiladas hasta 2023, cuando la empresa aún buscaba equilibrar expectativas. “No representa con precisión el funcionamiento actual de Replika”, señaló.
Persisten, además, preocupaciones sobre si estas aplicaciones permiten explorar fantasías que podrían considerarse agresivas o abusivas en la vida real, debido a su tendencia a complacer al usuario. Michael Robb, jefe de investigación de Common Sense Media, advierte que la falta de verificación de edad podría exponer a usuarios jóvenes a comportamientos inapropiados.
“Si practicas relaciones románticas a través de interacciones extremas y recibes validación constante, podrías desarrollar una percepción distorsionada de cómo funcionan las relaciones reales”, explica, aunque reconoce que aún faltan estudios concluyentes.
Tommy W, fundador de FreeGF.AI, reconoce que nada impide que los usuarios proyecten imágenes de personas reales en sus parejas virtuales sin consentimiento. Aun así, asegura que su aplicación no permite fantasías ilegales. Se negó a revelar el modelo de lenguaje que utiliza, aunque confirmó haber recibido ofertas de empresas de China y Estados Unidos (EU).
The Perfect Match?
La rápida evolución de la IA también ha llevado a apps de citas tradicionales como Tinder, Hinge, Bumble, Grindr y Breeze a incorporar esta tecnología para mejorar la experiencia del usuario y combatir la llamada “fatiga de las citas”.
Tinder y Hinge, ambas de Match Group, han priorizado el uso de IA para reforzar la seguridad, incluyendo un mensaje de “¿Estás seguro?”, que aparece cuando el sistema detecta que un usuario podría estar a punto de enviar un mensaje inapropiado.
EL DATO75 por ciento de los adolescentes en EU
(13–17 años) ha interactuado con una IA de acompañamiento.
“Descubrimos que 1 de cada 5 personas que recibe este aviso decide modificar o eliminar el mensaje, y que quienes lo reciben tienen menos probabilidades de volver a incurrir en ese comportamiento”, explica Yoel Roth, vicepresidente sénior de confianza y seguridad de Match Group.
Las aplicaciones también han implementado verificación facial en ciertos mercados para confirmar la identidad de los usuarios, así como herramientas para limitar insinuaciones sexuales excesivas en las conversaciones.
Roth señala que, si bien estafadores y actores maliciosos utilizan la IA para crear perfiles falsos, la misma tecnología permite detectar y prevenir fraudes. “Usamos la IA para combatir a quienes hacen daño y para ayudar a que los usuarios bien intencionados tengan una mejor experiencia”, afirma.
Además de la seguridad, las apps recurren a la IA para mejorar la compatibilidad entre usuarios, en un contexto de caída en el número de personas activas y de una percepción creciente de que las aplicaciones favorecen relaciones de corto plazo.
Bumble, otro actor clave del sector, asegura que emplea IA para optimizar la experiencia de sus usuarios, mientras desarrolla un “producto de IA independiente”, que aún se encuentra en etapas iniciales.
La presión sobre el negocio es evidente: las acciones de Match Group y Bumble han caído más de 80 por ciento desde sus máximos de 2021, y ambas compañías anunciaron despidos en 2025 como parte de sus estrategias de reducción de costos.
En julio, la directora ejecutiva de Bumble, Whitney Wolfe Herd, advirtió a sus empleados que la empresa podría no sobrevivir el año sin ajustes drásticos y reconoció que las aplicaciones de citas “se sienten como cosa del pasado”.
Para retener a los usuarios, Tinder y Hinge ahora ofrecen retroalimentación generada por IA sobre los perfiles, como sugerencias para detallar mejor intereses cuando las descripciones resultan demasiado genéricas.
Mientras tanto, Breeze, una plataforma que elimina el chat y conecta directamente a las personas para concretar una cita, utiliza la IA para perfeccionar su algoritmo. Según la firma Sensor Tower, la aplicación duplicó sus usuarios activos mensuales hasta superar los 400 mil.
el dato80 por ciento han caído las acciones
De Match Group y Bumble desde su pico en 2021.
“Solo mostramos un número limitado de perfiles al día y, si hay interés, se pasa directamente a la cita. Por eso, lograr una buena coincidencia es clave, y la IA puede marcar una gran diferencia”, explica Daan Alkemade, cofundador de Breeze.
No obstante, Alkemade reconoce los riesgos de que la tecnología discrimine a ciertos perfiles —por factores como origen étnico, religión o estatura— y asegura que la empresa toma precauciones para evitarlo.
El chatfishing
Con la proliferación de la IA, cada vez más usuarios recurren a chatbots para pedir consejos y opiniones sobre su vida amorosa.
Ama, quien pidió omitir su apellido para proteger su identidad, comenzó a usar ChatGPT hace unos seis meses para redactar mensajes en apps de citas, una práctica conocida como chatfishing (el uso de IA para escribir mensajes y simular una conexión emocional real con otro usuario).
“Mis amigos decían que mis mensajes no eran lo suficientemente femeninos, así que cada vez que escribía algo le pedía a la IA que lo ajustara”, cuenta. “Era muy artificial; se sentía engañoso. Incluso cambiaba el tipo de citas a las que los hombres me invitaban”.
Estas herramientas pueden funcionar como guías útiles para que las personas se muevan con mayor confianza en el entorno de las citas digitales. William, otro usuario de apps, reconoce que ha usado ChatGPT para redactar mensajes de ruptura.
“Es difícil explicar por qué quieres dejar de ver a alguien, sobre todo si no ha hecho nada malo”, dice. “Delegarlo a la IA ahorra tiempo y desgaste emocional”.
No obstante, Amelia Miller, investigadora especializada en IA y relaciones humanas, advierte que apoyarse en chatbots para recibir consejos sentimentales implica riesgos, ya que estos sistemas no tienen los mismos límites que cuando ofrecen recomendaciones médicas o financieras.
Aun así, la evidencia sugiere que los usuarios no quieren sustituir por completo la interacción humana. Un estudio de Ipsos realizado en diciembre de 2025 para Match Group reveló que, aunque la mayoría apoya el uso de IA para detectar perfiles falsos y acoso, 64 por ciento de los usuarios del Reino Unido considera poco probable usarla para guiar conversaciones, lo que refleja una preferencia por interacciones más naturales.
EL DATO1 de cada 5 usuarios modifica o elimina un mensaje
Tras recibir alertas de IA por contenido inapropiado en apps de citas.
“Estas herramientas pueden hacer más cómoda la experiencia en las citas en línea”, señala Miller. “Pero, por muy sofisticada que sea la IA, las personas siguen buscando conectar con otras personas. Esa necesidad de intimidad humana no puede ser reemplazada por la tecnología”.
Información adicional de Ayaz Ali.
KRC