Un estudio reciente del profesor Miguel Ángel Ossorio, Profesor colaborador de la Universitat Oberta de Catalunya (UOC), advierte sobre los riesgos crecientes asociados a la cesión involuntaria de imágenes personales a plataformas de inteligencia artificial. En el actual ecosistema digital, redes sociales y servicios de IA se reservan derechos sobre los contenidos que los usuarios comparten, incluyendo fotografías y videos que pueden ser utilizados para entrenar modelos algorítmicos sin un consentimiento informado y claro.
Expertos de la UOC sostienen que muchas de estas prácticas se encuentran detalladas en los términos y condiciones de uso, los cuales suelen ser extensos, de difícil comprensión y rara vez leídos. Esta situación deja a los usuarios en una posición vulnerable frente al tratamiento que reciben sus datos, especialmente cuando se trata de material visual que puede ser manipulado, replicado o redistribuido sin control. “Sólo vemos lo que nos aporta el servicio, pero no a lo que nos estamos comprometiendo”, señaló Silvia Martínez, profesora colaboradora e investigadora del grupo GAME en la UOC.
El estudio también señala que las imágenes subidas por los usuarios no solo se exponen a un uso indebido por terceros, sino que muchas veces son utilizadas directamente por las propias plataformas para entrenar sus sistemas de IA. Tal como lo explica Antonio Pita, docente de los Estudios de Informática, Multimedia y Telecomunicación de la UOC, las inteligencias artificiales aprenden a partir de grandes volúmenes de imágenes, generando “huellas matemáticas” capaces de reproducir rostros humanos con alta precisión. Este proceso, aunque técnicamente complejo, permite luego la creación de contenidos hiperrealistas, como deepfakes, con potenciales fines de engaño, manipulación o fraude.
Casos como el de Meta, que ha admitido la posibilidad de utilizar fotos almacenadas en dispositivos personales, incluso sin haber sido compartidas, para entrenar modelos de IA, plantean nuevas preguntas sobre los límites del consentimiento. En Europa, estas prácticas se enfrentan a regulaciones como el RGPD y el AI Act, que establecen criterios legales más estrictos para el uso de datos personales. Según Eduard Blasi, especialista en derecho digital de la UOC, “en Europa cualquier uso de imágenes con fines de entrenamiento de IA requiere una base jurídica válida y está sujeto a derechos fundamentales como el de la propia imagen”.
El informe de Ossorio también advierte que, si bien los usuarios pueden rechazar el uso de sus contenidos para entrenamiento de IA, el verdadero riesgo radica en lo que terceros pueden hacer con imágenes disponibles públicamente. Una vez publicadas, estas pueden ser utilizadas en contextos falsos o perjudiciales sin que las víctimas lo sepan. Ejemplos recientes incluyen estafas mediante videollamadas con identidades generadas por IA y contenidos manipulados que circulan como si fueran reales.
Frente a este escenario, los especialistas de la UOC recomiendan aplicar pensamiento crítico, reforzar la educación digital y conocer los derechos asociados a la protección de datos personales. También subrayan la importancia de que las plataformas refuercen los mecanismos de etiquetado y detección de contenidos generados artificialmente, como parte de una estrategia integral para mitigar los riesgos del entorno digital actual.









