AI companions: A threat to love, or an evolution of it?
Créditos de la imagen: Open to Debate – Foto de Ryan Rose
Mientras nuestras vidas se vuelven cada vez más digitales y pasamos más tiempo interactuando con chatbots que parecen humanos, la línea entre la conexión humana y la simulación de máquinas comienza a desdibujarse.
Hoy, más del 20% de los solteros reportan usar AI para cosas como crear perfiles de citas o iniciar conversaciones, según un reciente estudio de Match.com. Algunos van más allá y forman vínculos emocionales, incluyendo relaciones románticas, con compañeros AI.
Millones de personas en todo el mundo usan compañeros AI de empresas como Replika, Character AI y Nomi AI, incluyendo 72% de adolescentes estadounidenses. Algunos han reportado enamorarse de LLMs más generales como ChatGPT.
Para algunos, la tendencia de los bots de citas es distópica y poco saludable, una versión real de la película “Her” y una señal de que el amor auténtico está siendo reemplazado por el código de una empresa tecnológica. Para otros, los compañeros AI son una línea de vida, una manera de sentirse vistos y apoyados en un mundo donde la intimidad humana es cada vez más difícil de encontrar. Un reciente estudio encontró que un cuarto de los jóvenes adultos piensan que las relaciones con AI podrían reemplazar las humanas en poco tiempo.
El amor, parece, ya no es estrictamente humano. La pregunta es: ¿Debe ser así? ¿O puede que salir con un AI sea mejor que salir con un humano?
Ese fue el tema de discusión el mes pasado en un evento al que asistí en Nueva York, organizado por Open To Debate, una organización de medios no partidista centrada en debates. TechCrunch tuvo acceso exclusivo para publicar el video completo (que incluye mi pregunta a los debatientes, porque soy un periodista y no puedo evitarlo!).
La periodista y cineasta Nayeema Raza moderó el debate. Raza fue anteriormente productora ejecutiva en el aire del podcast “On with Kara Swisher” y ahora es la anfitriona de “Smart Girl Dumb Questions.”
Batiendo por los compañeros AI estaba Thao Ha, profesora asociada de psicología en la Universidad Estatal de Arizona y cofundadora del Modern Love Collective, donde aboga por tecnologías que mejoran nuestra capacidad de amar, empatizar y bienestar. En el debate, argumentó que “AI es una nueva forma emocionante de conexión … No una amenaza al amor, sino una evolución de él.”
Representando la conexión humana estaba Justin Garcia, director ejecutivo y científico senior en el Kinsey Institute, y asesor científico jefe de Match.com. Es un biólogo evolutivo centrado en la ciencia del sexo y las relaciones, y su próximo libro se titula “The Intimate Animal.”
Puedes ver todo el video aquí, pero sigue leyendo para tener una idea de los argumentos principales.
Siempre ahí para ti, ¿eso es bueno?
Ha dice que los compañeros AI pueden proporcionar a las personas el apoyo emocional y la validación que muchas no pueden obtener en sus relaciones humanas.
“AI escucha sin ego,” dijo Ha. “Se adapta sin juzgar. Aprende a amar de maneras consistentes, respondonas y tal vez incluso más seguras. Entiende cómo eres de maneras que nadie más lo ha hecho. Es curioso sobre tus pensamientos, puede hacerte reír y hasta sorprenderte con un poema. La gente generalmente se siente amada por su AI. Tienen conversaciones intelectuales con él y no pueden esperar a conectarse de nuevo.”
Preguntó al público que comparara este nivel de atención constante con “tu ex fallible o tal vez tu pareja actual.”
“El que suspira cuando empiezas a hablar, o el que dice ‘Estoy escuchando’ sin mirarte mientras sigue scrolling en su teléfono,” dijo. “¿Cuándo fue la última vez que te preguntó cómo estás, qué sientes, qué piensas?”
Ha reconoció que, ya que AI no tiene conciencia, no está reclamando que “AI puede amarnos auténticamente.” Eso no significa que la gente no tenga la experiencia de ser amada por AI.
Garcia argumentó que no es bueno para los humanos tener una validación y atención constante, depender de una máquina que ha sido programada para responder de maneras que te gustan. No es “un indicador honesto de la dinámica de una relación,” dijo.
“La idea de que AI va a reemplazar los altibajos y el caos de las relaciones que anhelamos? No lo creo.”
Garcia notó que los compañeros AI pueden ser útiles como ruedas de entrenamiento para ciertos grupos, como personas neurodivergentes que pueden tener ansiedad sobre salir en citas y necesitan practicar cómo coquetear o resolver conflictos.
“Creo que si los estamos usando como herramientas para desarrollar habilidades, sí … eso puede ser bastante útil para muchas personas,” dijo Garcia. “La idea de que eso se convierta en el modelo de relación permanente? No.”
Según un estudio de Singles in America de Match.com, publicado en junio, casi el 70% de las personas dirían que considerarían infidelidad si su pareja interactuara con un AI.
“Ahora, eso va a [Ha’s] punto, de que la gente está diciendo que estas son relaciones reales,” dijo. “Por otro lado, va a mi punto, de que son amenazas para nuestras relaciones. Y el animal humano no tolera amenazas a sus relaciones a largo plazo.”
Garcia dice que la confianza es la parte más importante de cualquier relación humana, y la gente no confía en AI.
“Según una reciente encuesta, un tercio de los estadounidenses piensa que AI destruirá la humanidad,” dijo Garcia, notando que una reciente encuesta YouGo encontró que el 65% de los estadounidenses no confían en AI para tomar decisiones éticas.
“Un poco de riesgo puede ser emocionante para una relación a corto plazo, una aventura de una noche, pero generalmente no quieres despertarte al lado de alguien que piensas que podría matarte o destruir la sociedad,” dijo Garcia. “No podemos prosperar con una persona o un organismo o un bot en el que no confiamos.”
Ha argumentó que la gente tiende a confiar en sus compañeros AI de maneras similares a las relaciones humanas.
“Están confiando en él con sus vidas y sus historias y emociones más íntimas,” dijo Ha. “Creo que, en un sentido práctico, AI no te salvará en este momento si hay un incendio, pero sí confían en él de la misma manera.”
Tacto físico y sexualidad
Los compañeros AI pueden ser una excelente manera para que las personas jueguen sus fantasías sexuales más íntimas y vulnerables, dijo Ha, notando que las personas pueden usar juguetes sexuales o robots para vivir algunas de esas fantasías.
Pero no es un sustituto del tacto humano, que Garcia dice que estamos programados biológicamente para necesitar y desear. Notó que, debido a la era aislada y digital en la que estamos, muchas personas están sintiendo “carencia de tacto” — una condición que ocurre cuando no recibes tanto tacto como necesitas, lo que puede causar estrés, ansiedad y depresión. Esto es porque interactuar con tacto agradable, como un abrazo, hace que tu cerebro libere oxitocina, una hormona de bienestar.
Ha dijo que ha estado probando el tacto humano entre parejas en realidad virtual usando otras herramientas, como posibles trajes hapticos.
“El potencial del tacto en VR y también conectado con AI es enorme,” dijo Ha. “Las tecnologías táctiles que se están desarrollando están creciendo rápidamente.”
La violencia de pareja es un problema global, y gran parte del AI se entrena en esa violencia. Tanto Ha como Garcia acordaron que AI podría ser problemático, por ejemplo, amplificando comportamientos agresivos — especialmente si esa es una fantasía que alguien está jugando con su AI.
Esa preocupación no es infundada. Varios estudios han mostrado que los hombres que ven más pornografía, que puede incluir sexo violento y agresivo, son más propensos a ser sexualmente agresivos con sus parejas en la vida real.
“El trabajo de una de mis colegas del Kinsey Institute, Ellen Kaufman, ha mirado exactamente este problema de lenguaje de consentimiento y cómo las personas pueden entrenar a sus chatbots para amplificar el lenguaje no consensual,” dijo Garcia.
Notó que las personas usan AI compañeros para experimentar tanto lo bueno como lo malo, pero el riesgo es que terminen entrenando a la gente en cómo ser agresivos y no consensuales.
“Ya tenemos suficiente de eso en la sociedad,” dijo.
Ha piensa que estos riesgos pueden mitigarse con una regulación cuidadosa, algoritmos transparentes y diseño ético.
Por supuesto, hizo ese comentario antes de que la Casa Blanca publicara su Plan de Acción de AI, que no dice nada sobre la transparencia — algo que muchas empresas de vanguardia de AI están en contra — ni ética. El plan también busca eliminar muchas regulaciones sobre AI.