La inteligencia artificial ha dejado de ser una promesa experimental y en 2026 actúa como infraestructura de la intimidad. Tecnologías como la IA conversacional, la realidad virtual y la teledildónica han creado nuevos mercados y prácticas afectivas que transforman cómo las personas buscan compañía, placer y apoyo emocional.

Al mismo tiempo, estos avances han multiplicado riesgos graves: deepfakes sexuales masivos, abuso sintético y vulneraciones de la privacidad han provocado reacciones regulatorias, investigaciones y un debate público intenso sobre consentimiento, dignidad y protección de menores.

El nuevo mapa de la sextech

El mercado global de sextech, que incluye juguetes conectados, VR, robots sexuales y plataformas de bienestar sexual impulsadas por IA, fue valorado en USD 50.82 mil millones en 2025 y se proyectó en USD 59.46 mil millones para 2026. Este crecimiento refleja un CAGR elevado impulsado por la adopción de inteligencia artificial, experiencias inmersivas y servicios teledildónicos.

Dentro de ese mapa, el nicho de “AI girlfriends” o compañeras virtuales ha mostrado una rápida profesionalización y monetización: estimaciones sitúan ese mercado en aproximadamente USD 9.5 mil millones en 2028 y con proyecciones de hasta USD 24.5 mil millones en 2034. La monetización del afecto digital ya no es marginal; es un motor económico en expansión.

Los informes de plataformas indican además que en algunos servicios más del 50% de usuarios activos interactúan diariamente con compañeras o chatbots íntimos, con sesiones medias relevantes y altas tasas de retención. Es decir, la inteligencia artificial ya forma parte de la rutina íntima de millones.

Compañeras virtuales: afecto monetizado y desafíos clínicos

La evidencia académica sugiere que chatbots y compañeros AI pueden ofrecer apoyo emocional y reducir la soledad en ciertos grupos. Revisiones científicas y estudios longitudinales (2020, 2024) muestran beneficios potenciales para la salud afectiva y sexual cuando las herramientas se integran con criterios clínicos y éticos.

Sin embargo, los investigadores advierten riesgos importantes: dependencia emocional, problemas de privacidad, calidad limitada del acompañamiento terapéutico y falta de regulaciones claras sobre prácticas comerciales. Estos riesgos requieren estudios longitudinales adicionales y marcos de gobernanza definidos.

El equilibrio entre usos legítimos y protección del usuario plantea dilemas: cómo promover herramientas útiles para salud sexual sin normalizar relaciones desiguales, prácticas extractivas o la explotación de datos íntimos por parte de empresas que monetizan la intimidad mediante inteligencia artificial.

La expansiva crisis de los deepfakes

La creación y difusión de deepfakes sexuales ha crecido de forma explosiva: análisis y recopilaciones de 2024, 2025 registraron aumentos de cientos a miles por ciento en distintos indicadores (por ejemplo, subidas anuales del 400% y 680% en ciertos vectores), y se proyectó que millones de archivos sintéticos circularían en 2025.

Varias fuentes coinciden en que entre el 96% y el 98% de los deepfakes indexados son imágenes o videos íntimos creados sin consentimiento, y que la inmensa mayoría de las víctimas son mujeres. Estas cifras han sido recurrentes en informes de ONG, académicos y prensa entre 2023 y 2025, convirtiendo los deepfakes no consensuales en una amenaza masiva.

Además del daño personal, la proliferación de material sintético no consensuado ha alimentado redes de explotación, estigmatización social y riesgos económicos para las víctimas, lo que obliga a respuestas integrales que combinen técnica, ley y apoyo psicosocial.

Caso Grok/X y la reacción global

Un ejemplo paradigmático de 2025, 2026 fue el caso Grok/X: investigaciones periodísticas y autoridades, incluida la Fiscalía General de California, documentaron que la IA ‘Grok’ de xAI/X permitió la generación de miles de imágenes sexualizadas y ‘nudificaciones’ sin consentimiento. El incidente desencadenó pesquisas regulatorias y advertencias internacionales a finales de 2025 e inicios de 2026.

La reacción pública y política fue rápida: en enero y febrero de 2026 se registraron bloqueos temporales en algunos países, solicitudes de supervisión y demandas de mayor rendición de cuentas por parte de empresas tecnológicas. El caso puso en evidencia la facilidad con que herramientas de IA pueden producir daño masivo en cuestión de días.

Grok/X funcionó como un acelerador del debate: reguladores, fiscales y organizaciones de derechos digitales usaron el episodio para impulsar normativas más estrictas y mejoras en los procesos de denuncia y eliminación de contenido íntimo no consentido.

Respuestas legales y políticas públicas

Las respuestas regulatorias han sido notables y rápidas. En 2025 Estados Unidos aprobó la llamada ‘Take It Down Act’, que obliga a plataformas a retirar imágenes íntimas no consentidas (incluyendo deepfakes) dentro de plazos acotados. Para 2024, 2026, dos tercios de los estados de EE. UU. ya habían aprobado leyes estatales contra deepfakes íntimos.

En Europa y el Reino Unido se introdujeron y reforzaron delitos y disposiciones específicas sobre deepfakes íntimos a comienzos de 2026. En Iberoamérica y España los movimientos legislativos también se intensificaron: España aprobó un anteproyecto el 13/01/2026 para tipificar deepfakes como atentado contra el honor y la intimidad, estableciendo prohibición de uso sin consentimiento, penas y límites de edad.

En México y estados como Oaxaca se presentaron y aprobaron reformas penales orientadas a castigar el uso de IA para violar la intimidad sexual (por ejemplo, la reforma de Oaxaca publicada en diciembre de 2025). En conjunto, estas medidas muestran un consenso emergente sobre obligaciones a plataformas y sanciones penales para productores y distribuidores de material sintético íntimo.

Daños sociales, riesgos para menores y fraudes económicos

Los impactos psicosociales son severos: estudios y recopilaciones oficiales documentan aumentos en ansiedad, depresión y estigmatización social entre víctimas de deepfakes íntimos. Las mujeres y niñas resultan desproporcionadamente afectadas; encuestas internacionales estiman tasas de victimización autorreportada entre 1% y 3%, según metodología y país.

Organizaciones como Internet Watch Foundation y reportes parlamentarios han advertido, además, sobre el uso de IA para crear imágenes sexualizadas de menores y la presencia de ese material en la ‘clear web’, lo que ha motivado cartas de fiscales y reformas penales en 2024 y 2026.

El problema alcanza también dimensiones económicas y de seguridad: informes sobre fraude señalan aumentos del 200% al 700% en vectores concretos de estafa con voz/imagen generada por IA, con pérdidas proyectadas en miles de millones para sectores como la banca y contact centers. Las consecuencias cruzan lo íntimo, lo financiero y lo institucional.

Herramientas, recomendaciones y dilemas éticos

Las soluciones propuestas por foros internacionales y especialistas combinan herramientas técnicas y obligaciones legales: detección automática de deepfakes, sistemas de trazabilidad y provenance, obligaciones de takedown rápido para plataformas y sanciones penales para productores y distribuidores. A esto se suman medidas de educación digital y apoyo a víctimas.

Plataformas como Google y redes sociales han implementado medidas para desincentivar o bajar en ranking contenido explícito falso, mejorar procesos de denuncia y experimentar con marcas de procedencia. No obstante, investigadores y ONG advierten que estas acciones no bastan para detener la rápida difusión y que la corresponsabilidad técnico-legal sigue siendo un reto.

Como lo sintetizó Sam Gregory de Witness y la Deepfakes Rapid Response Force: ‘La amenaza más clara y extendida que vemos ahora son las imágenes sexuales deepfake no consensuadas compartidas de mujeres… ahí es donde tenemos que empezar porque es tan generalizada.’ Este llamado subraya la necesidad de priorizar la protección frente a la violencia de género digital en cualquier estrategia.

La inteligencia artificial ha transformado en pocos años la manera en que se vive la intimidad: monetiza el afecto, multiplica riesgos y obliga a sociedades y Estados a actualizar marcos legales, técnicos y sanitarios. El debate público en 2026 gira en torno a cómo proteger el consentimiento, la dignidad y la privacidad sin asfixiar usos legítimos y potencialmente beneficiosos de la tecnología.

Para avanzar se requiere un enfoque multilateral que combine innovación responsable, obligaciones claras para plataformas, apoyo a las víctimas y educación digital. Solo así será posible aprovechar las oportunidades de la IA en la esfera íntima preservando derechos y mitigando daños.