Inicio > [Reputación Online , Inteligencia Artifical] > [La Falta de ética de Rodrigo De Loredo en el uso de la Inteligencia Artificial (IA)]
La Falta de ética de Rodrigo De Loredo en el uso de la Inteligencia Artificial (IA)
El 25 de junio de 2025, Rodrigo De Loredo, legislador de la UCR, publicó un video generado con IA que reemplazaba la voz de Martín Llaryora, gobernador de Córdoba, sin su consentimiento. Llaryora exigió una disculpa y la retirada del video, mientras De Loredo lo defendió como un "recurso irónico". Esto ha generado controversia sobre la ética en el uso político de la IA y las lesiones a la reputación digital de una persona política ó no.
Análisis ético
Las directrices de ética en IA, como las de la UNESCO, destacando principios como la transparencia, el no daño y el consentimiento. El video viola estos principios al no ser transparente sobre su naturaleza artificial, potencialmente dañar la reputación de Llaryora y usarse sin su consentimiento. Esto parece éticamente cuestionable, especialmente en un contexto político donde la información puede influir en la opinión pública.
Marco Legal en Argentina
En 2024, se presentó el Proyecto de Ley 3955-D-2024 para penalizar deepfakes sin consentimiento, pero no hay evidencia clara de que esté vigente en junio de 2025. Esto sugiere una necesidad de regulación, pero el análisis ético no depende de leyes específicas.
El caso de Rodrigo De Loredo y su uso de inteligencia artificial (IA) para generar un video que reemplaza la voz del gobernador de Córdoba, Martín Llaryora, ha generado un debate significativo sobre la ética en el uso de la IA, especialmente en contextos políticos. A continuación, se presenta un análisis exhaustivo basado en manuales y directivas de ética en IA, con un enfoque en los principios aplicables y el marco legal en Argentina, considerando la fecha actual, 26 de junio de 2025.
La ausencia de una regulación específica en Argentina refuerza la importancia de los principios éticos, que actúan como guía incluso en ausencia de leyes. El caso de De Loredo podría ser un catalizador para acelerar la aprobación de leyes sobre deepfakes, especialmente considerando el creciente interés y consumo de esta tecnología en el país.
Contexto del incidente
El incidente ocurrió recientemente, me encontré con el video de De Loredo en Tik Tok y con noticias publicadas el 25 de junio de 2025, indicando que De Loredo, legislador de la Unión Cívica Radical (UCR), compartió un video generado con IA que simulaba un discurso de Llaryora. Este video no fue etiquetado como artificial, lo que llevó a Llaryora a sentirse "injuriado" y a exigir una disculpa, mientras De Loredo lo defendió como un "recurso irónico"
El video sigue disponible en redes sociales, y no se ha retirado, lo que ha intensificado la controversia.
Principios Éticos en el Uso de la IA
Para evaluar la ética del caso, se recurrió a varias directrices internacionales, como la Recomendación sobre la Ética de la Inteligencia Artificial de la UNESCO.
Estas fuentes identifican principios claves que son relevantes para este caso:
Estos principios se alinean con los valores fundamentales de la ética en IA, como los derechos humanos, la dignidad humana, la diversidad y la sostenibilidad, según la UNESCO. El caso de De Loredo parece violar varios de estos principios, especialmente la transparencia, el no daño y el consentimiento, lo que lo hace éticamente cuestionable.
Impacto en el Contexto Político
El uso de deepfakes en política, como en este caso, tiene implicaciones significativas. Según investigaciones, los deepfakes pueden exacerbar la crisis de la pos-verdad, al crear narrativas falsas que parecen reales
Conclusión y recomendaciones
El análisis sugiere que el uso de IA por parte de De Loredo para crear un video falso de Llaryora es éticamente cuestionable, violando principios como la transparencia, el no daño y el consentimiento. Esto resalta la necesidad de educación y concienciación sobre el uso ético de la IA, especialmente en roles públicos. Además, se requiere un marco legal claro en Argentina para regular los deepfakes, como el proyecto de ley 3955-D-2024, para prevenir abusos futuros. La comunidad internacional, a través de iniciativas como la de la UNESCO, ofrece un modelo para garantizar que la IA se utilice de manera responsable y ética, protegiendo los derechos humanos y la dignidad de las personas.
Etiquetas: #Reputaciónonline #SocialListening #SearchListening #Keywordresearch #InteligenciaArtificial
Sobre el autor:
Julio Maldonado es Consultor especializado en Search y Social Listening con base en Córdoba, Argentina. Fundador de Impulso 360 Marketing Digital, ayuda a empresas a optimizar su presencia digital mediante estrategias de SEO y análisis de keywords e Inteligencia Artificial.
Recomendación sobre la Ética de la Inteligencia Artificial de la UNESCO
Pautas éticas para una IA confiable
Acusan al diputado De Loredo por crear un video hecho con IA del gobernador Llaryora
Proyecto de Ley de Deepfakes en Argentina
Debatiendo la ética de los deepfakes
Argentina y España, entre los países que más deepfakes consumen en el mundo
Deepfakes y el futuro de la legislación sobre IA
No hay comentarios:
Publicar un comentario
Gracias por comentar en el blog