Horario de atención: Lunes a Viernes - 8:00 - 12md y de 1:00 - 5:00pm



Tecnologías de manipulación: Inteligencia Artificial y desinformación en contextos democráticos

Código y nombre. 0116-23. Tecnologías de manipulación: Inteligencia Artificial y desinformación en contextos democráticos. 

Responsable. Doctor Jonathan Piedra Alegría 

Vigencia. 1 de enero del 2024 al 31 de diciembre del 2024.

Resumen

Se explorará cómo las herramientas y software de IA pueden ser utilizados para propagar la desinformación y manipular a la opinión pública, lo que a su vez amenaza los principios fundamentales de la democracia, como la transparencia, la rendición de cuentas y el debate público abierto.

En primer lugar, a medida que avanza la tecnología de IA, tiene el potencial de generar contenido falso muy convincente, como noticias falsas, videos falsos y bots de redes sociales. Estas formas de contenido generado por IA tienen el potencial de difundir información errónea y sembrar confusión entre el público, socavando la confianza del público en las instituciones y procesos democráticos. Al estudiar la relación entre la IA y la creación de contenido falso, podemos comprender mejor los riesgos potenciales y desarrollar estrategias de información a nivel masivo para la toma ética de decisiones que permitan crear pensamiento crítico colectivo.

El contenido falso se puede utilizar para manipular la opinión pública e influir en los resultados políticos. Esto puede tener un impacto significativo en el funcionamiento de las sociedades democráticas y la capacidad de los ciudadanos para tomar decisiones informadas. Comprender la relación entre la IA y la creación de contenido falso puede ayudarnos a anticipar y contrarrestar estos esfuerzos para socavar la democracia.
El contenido falso generado por IA también se puede utilizar para atacar y marginar a ciertos grupos de la sociedad, como las minorías y las comunidades marginadas. Al estudiar la relación entre la IA y la creación de contenido falso, podemos comprender mejor cómo estas tecnologías pueden perpetuar y amplificar la discriminación y la desigualdad.
Precisamente por esto es por lo que el uso de la IA y el aprendizaje automático en la creación de contenido falso se vuelve más sofisticado y generalizado, es fundamental estudiar la relación entre la IA y el debilitamiento de la institucionalidad de la democracia para desarrollar e implementar políticas, regulaciones y medidas efectivas para proteger la democracia y al público de los efectos negativos del contenido falso generado por IA.

Objetivos

General

  • Analizar la relación entre la IA y el debilitamiento de la institucionalidad de la democracia a través de la creación de contenido falso. Esto con la finalidad de desarrollar un marco filosófico que permita la discusión sobre la utilización de esta tecnología y su futura regulación. 

Específico 

  • Establecer los mayores desafíos y riesgos de la utilización de estas tecnologías de lA en la generación de opinión pública.
  • Determinar las principales tecnologías utilizadas para generar contenido falso.

Descripción del problema 

Esta investigación analizará de manera filosófica los diferentes desafíos éticos y políticos de diferentes tecnologías de IA. Al mismo tiempo sea encuentra alineado con el PROFICEP en tanto la investigación analizará temas que han impactado o impactaran a la sociedad en un futuro cercano, sin dejar de lado las otras áreas disciplinares que forman un saber orgánico, organizado y sistemático del pensamiento filosófico. En este sentido se estudiará la relación entre la IA y el socavamiento de la institucionalidad democracia a través de la creación de contenido falso. Este análisis es importante porque puede ayudarnos a comprender los riesgos potenciales y desarrollar estrategias para mitigarlos, anticipar y contrarrestar los esfuerzos para socavar la democracia, comprender cómo la IA genera el contenido falso puede perpetuar y amplificar la discriminación y la desigualdad, y desarrollar políticas efectivas para proteger la democracia y al público de los efectos negativos del contenido falso generado por IA.
Este estudio está claramente vinculado con varios de los Objetivos de Desarrollo Sostenible (ODS) establecidos por las Naciones Unidas. A continuación, se presentan las conexiones con algunos de los ODS más relevantes:
1. ODS 4 - Educación de calidad:** Este estudio contribuye a la creación de conocimiento en el ámbito de la IA y la ética. Al difundir este conocimiento, contribuye a una educación de calidad que permite a las personas entender y enfrentar los desafíos éticos y políticos presentados por las tecnologías de IA.

2. ODS 5 - Igualdad de género: Si bien el estudio no aborda directamente este objetivo, la investigación sobre cómo la IA puede perpetuar y amplificar la discriminación podría conducir a políticas que promuevan la igualdad de género en la sociedad digital.

3. ODS 9 - Industria, innovación e infraestructura: Al analizar los desafíos éticos y políticos de las tecnologías de IA, este estudio también puede influir en la forma en que se desarrollan y implementan estas tecnologías, lo que puede contribuir a una infraestructura de información más sostenible y equitativa.

4. ODS 10 - Reducción de las desigualdades: Al entender cómo la IA puede perpetuar y amplificar la discriminación y la desigualdad, podemos desarrollar políticas y estrategias para contrarrestar estos problemas y reducir las desigualdades.

5. ODS 16 - Paz, justicia e instituciones sólidas: Esta investigación está directamente relacionada con este objetivo. La investigación analizará cómo la IA puede socavar las instituciones democráticas a través de la creación de contenido falso. Comprender estos riesgos y desarrollar estrategias para mitigarlos puede contribuir a fortalecer las instituciones democráticas y promover la paz y la justicia.

En base a las líneas de investigación mencionadas, este estudio está profundamente arraigado en el trabajo académico y las preocupaciones de la Escuela. A continuación, se detalla la conexión:

1. Filosofía contemporánea:*Este estudio está ubicado en el corazón de la filosofía contemporánea al explorar los desafíos éticos y políticos de las tecnologías de IA, una de las cuestiones más apremiantes de nuestra época.

2. Ética de la IA: El enfoque de este estudio en los desafíos éticos de las tecnologías de IA lo alinea directamente con la línea de investigación de la ética de la IA.

3. Tecnología y nuevas redes de comunicación: noticias falsas: El estudio examina cómo la IA puede socavar la democracia a través de la creación de contenido falso, conectando así con las preocupaciones de esta línea de investigación.

4. Ciencia y democracia: Al explorar el impacto potencial de las tecnologías de IA en las instituciones democráticas, este estudio también se vincula con la línea de investigación en ciencia y democracia.

La vinculación de la ética y la política en este estudio es crucial para entender cómo se manifiesta el problema en la actualidad. La IA es un instrumento de gran poder y su uso no regulado o malintencionado puede tener consecuencias perjudiciales a nivel ético y político. 
Por un lado, tenemos la cuestión ética, que radica en el uso responsable de la IA, evitando la discriminación y promoviendo la equidad. El problema radica en la dificultad de implementar estos principios en algoritmos y sistemas que a menudo no son transparentes y que pueden ser manipulados para servir a intereses específicos. 
En segundo lugar, tenemos la cuestión política, que se centra en el impacto de la IA en nuestras instituciones democráticas. La IA puede ser utilizada para difundir noticias falsas, fomentar la desinformación y socavar la confianza en las instituciones democráticas. 
En este sentido, esta investigación es un esfuerzo por analizar estos problemas y ayudar a la sociedad a encontrar soluciones efectivas.

Contacto: jonathan.piedra.alegríEsta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.