En 2026 la inteligencia artificial ha entrado de lleno en la esfera más íntima de la vida humana: relaciones, deseo, compañía y también explotación. Productos nuevos , desde chatbots cada vez más persuasivos hasta muñecas y robots con IA, están transformando la manera en que las personas buscan afecto, placer y consuelo, mientras que al mismo tiempo emergen riesgos sociales, legales y éticos de gran calado.
Este artículo recorre desarrollos recientes: desde presentaciones en CES 2026 hasta informes internacionales sobre deepfakes sexuales y cambios regulatorios en Europa y Estados Unidos. La conversación pública ya no es solo sobre innovación, sino sobre cómo proteger a menores y adultos frente a daños reales derivados del uso de tecnologías que modelan la intimidad.
Muñecas y robots de compañía: la nueva ola en CES 2026
En CES 2026 llamaron la atención muñecas y robots de compañía dotados de inteligencia artificial que buscan simular compañía emocional y sexual. Un ejemplo destacado fue Lovense con su modelo «Emily»: una figura a tamaño real con motor conversacional que recuerda interacciones, ofrece conectividad Bluetooth y amplias opciones de personalización. La compañía anunció preventas y depósitos, con envíos previstos para 2027, marcando una dirección clara hacia productos hardware+IA en el mercado sextech.
Estos dispositivos combinan suscripciones, personalización y ecosistemas conectados, lo que abre modelos comerciales atractivos para la industria, pero también plantea riesgos evidentes de privacidad y seguridad de datos. La captura y almacenamiento de conversaciones, preferencias y contenidos íntimos pueden convertirse en vectores de vulneración si no se aplican salvaguardas robustas.
Investigaciones académicas publicadas en 2025 y 2026, incluida una revisión en AI & Society, advierten que las «companion AI» aumentan la capacidad de formar apego emocional y presentan riesgos de «social deskilling». Los autores reclaman diseño con garantías como age assurance, transparencia y «safety-by-design» para mitigar daños potenciales.
Deepfakes y explotación infantil: alarma y exigencias de acción
Los deepfakes sexuales y el material sexual no consensuado generado o amplificado por IA han provocado una reacción contundente de organismos internacionales. UNICEF, en el marco del informe Disrupting Harm fase 2, resumió el problema con una frase lapidaria: «Deepfake abuse is abuse.» El estudio conjunto UNICEF‑ECPAT‑INTERPOL reportó que, en 11 países encuestados, al menos 1,2 millones de niños declararon que sus imágenes fueron manipuladas en deepfakes sexualizados en el último año.
En su declaración del 4 de febrero de 2026, UNICEF añadió: «Deepfake abuse is abuse… When a child’s image or identity is used, that child is directly victimised.» Esa urgencia se acompaña de pedidos explícitos para criminalizar y prevenir la circulación de CSAM generado por IA y para exigir responsabilidades a plataformas y proveedores de servicios digitales.
A la luz de estos hallazgos, autoridades y fiscales han intensificado investigaciones: la Comisión Europea abrió una instrucción bajo la DSA sobre Grok por generación y amplificación de deepfakes sexuales, y la Fiscalía de París realizó registros y citó a directivos como parte de una investigación que incluye difusión de material sexual no consensuado. La comisaria Henna Virkkunen sentenció: «Non-consensual sexual deepfakes of women and children are a violent, unacceptable form of degradation.»
Datos, moderación y los retos de contabilizar el fenómeno
Las cifras sobre CSAM y material vinculado a IA han fluctuado y generado debate metodológico. Informes de prensa y análisis señalaron 67.000 reportes a la NCMEC en 2024 frente a aproximadamente 485.000 reportes relacionados con IA en la primera mitad de 2025. Sin embargo, investigaciones posteriores matizaron cuánto de ese volumen correspondía efectivamente a material generado por IA frente a reportes etiquetados como «IA» por procesos automáticos o agregación de señales.
Varios medios, incluyendo The New York Times, destacaron que muchos titulares sobre una «explosión» de deepfakes se basaron en agregaciones, coincidencias de hash y etiquetas de plataformas; por eso los analistas han pedido cautela al interpretar cifras brutas. Aun así, la tendencia hacia mayor volumen y la presión sobre sistemas de moderación , humanos y automáticos, está corroborada por múltiples fuentes y es un hecho tangible para investigadores y gestores de plataformas.
El desafío técnico y operativo para moderadores es doble: distinguir con precisión contenido AI-generated y escalar respuestas eficaces que protejan a las víctimas sin criminalizar o silenciar flujos de comunicación legítimos. Esto exige mejores herramientas forenses, transparencia en criterios de etiquetado y obligaciones de diligencia para proveedores de IA.
Plataformas, límites y cambios de producto
Frente a la presión pública y legal, varias plataformas han modificado sus políticas y funciones. Character.AI y otras iniciativas limitaron o eliminaron funciones para menores: Character.AI prohibió chats abiertos para menores, implementando una transición con un límite de 2 horas por día antes de bloquear totalmente el acceso a usuarios menores de 18 años. Replika y otros servicios han restringido el roleplay erótico en mercados específicos.
Estas medidas reflejan una respuesta preventiva a demandas regulatorias y a la necesidad de reducir riesgos de explotación. Sin embargo, los cambios también generan debates sobre eficacia, desplazamiento de usuarios hacia alternativas menos seguras y las responsabilidades crecientes de las empresas para verificar edades y moderar contenidos.
En paralelo, la adopción masiva de chatbots es notoria entre jóvenes: según Pew Research (diciembre de 2025), el 64% de adolescentes estadounidenses ha usado chatbots de IA y cerca del 28% los usa diariamente. Esa exposición habitual impulsa discusiones urgentes sobre protección y alfabetización digital orientada a menores.
Intimidad, parejas y mercado afectivo
La presencia de IA en la intimidad de las personas está remodelando relaciones y expectativas. Una encuesta de Gleeden publicada en enero de 2026 halló que el 70% de los encuestados cree que la IA puede aumentar rupturas de pareja; además, el 55% no contaría a su pareja que mantiene conversaciones íntimas frecuentes con una IA y un 19% reconoció haber usado IA con fines sexuales. Una sexóloga citada por el estudio advirtió: «La IA da un sí a todo… eso puede ser agradable, pero es profundamente peligroso.»
Estos datos muestran que la IA funciona tanto como sustituto como complemento de relaciones humanas. Para algunos usuarios, chatbots y compañeros digitales ofrecen apoyo inmediato y libre de juicios; para otros, pueden erosionar la comunicación con parejas reales y aumentar expectativas irreales sobre consentimiento y reciprocidad.
Las empresas que desarrollan productos de compañía y sextech apuestan a la personalización y a la fidelización mediante datos íntimos. Ese modelo puede intensificar dependencias emocionales y crear nuevos puntos de vulnerabilidad si no existen marcos claros sobre privacidad, interoperabilidad y límites éticos.
Salud mental, dependencia y poblaciones vulnerables
Varios reportes de 2025 y 2026 consignan efectos mixtos de los chatbots y compañeros IA sobre la salud mental. En situaciones de crisis, estos agentes pueden ofrecer apoyo inmediato y accesible, algo valioso donde faltan recursos humanos; sin embargo, hay evidencia de que su uso prolongado puede crear dependencia emocional y, irónicamente, agravar la soledad a largo plazo cuando sustituyen interacciones humanas significativas.
Grupos vulnerables muestran mayor tendencia a buscar consuelo en IA, lo que exige protocolos claros para escalado hacia ayuda profesional y límites en la capacidad de resolución por parte de sistemas automatizados. Fallos en la derivación o respuestas inadecuadas en momentos críticos han sido documentados como riesgos reales que requieren atención regulatoria y diseño responsable.
En la práctica, la mitigación de estos daños pasa por mejores prácticas de diseño, evaluación de impacto psicosocial y regulación que exija transparencia sobre límites funcionales de la IA, mecanismos de supervisión humana y vías efectivas para asistencia en crisis.
Regulación, justicia y próximos pasos
La respuesta legal y política se acelera en múltiples frentes. La Unión Europea aplica la DSA para investigar responsabilidad por difusión de deepfakes y material sexual no consensuado; varios países europeos, incluido Italia, han avanzado leyes que penalizan la distribución de deepfakes y CSAM generados por IA. En Estados Unidos, audiencias y proyectos de ley en el Congreso y el Senado analizan medidas para combatir deepfakes y la explotación de menores.
En España, la portavoz del Gobierno solicitó a la Fiscalía investigar plataformas por difusión de pornografía infantil ligada a herramientas de IA (febrero de 2026). A la vez, UNICEF reclamó a gobiernos y empresas que actúen sin demora: «Children cannot wait for the law to catch up» , un llamado a priorizar medidas protectoras urgentes para menores.
A pesar de avances legislativos, persisten desafíos metodológicos y operativos: la necesidad de métricas claras, cooperación internacional en investigaciones digitales y estándares técnicos para la detección y preservación de evidencia. Solo una combinación de regulación, vigilancia judicial, diseño responsable y educación pública permitirá equilibrar innovación y protección de derechos.
En 2026 la inteligencia artificial redefine la intimidad con posibilidades y riesgos que convergen en un mismo punto: la vulnerabilidad humana ante tecnologías que reproducen, amplifican y monetizan deseos y afectos. La balanza entre beneficios , acceso, compañía, creatividad, y daños , explotación, violaciones a la privacidad, daños psicosociales, exige decisiones informadas y rápidas.
Proteger a menores y proteger la dignidad de las personas frente a deepfakes sexuales y usos predatorios de la IA será la prioridad de los próximos años. La ruta pasa por regulación efectiva, diseño con salvaguardas, transparencia empresarial y fortalecimiento de capacidades de detección y apoyo para las víctimas. La sociedad debe decidir cómo quiere que la tecnología actúe en sus relaciones más íntimas: como ayuda o como fuente de daño.
