“Hipnocracia” o el régimen de la sociedad adormecida con dos sumos “sacerdotes”: Trump y Musk
Un encuentro internacional sobre IA advierte del uso de las tecnologías de la información sin límites para acabar con la ciudadanía crítica e informada.
Elon
Musk escucha al presidente de EE UU, Donald Trump, en una comparecencia en el
Despacho Oval de la Casa Blanca el pasado 14 de marzo.Kevin Lamarque (REUTERS)
EL PAÍS/TECNOLOGÍA
Multitud de investigaciones lo vienen advirtiendo: los memes no son inocuos; para los extremismos, es el lenguaje más eficaz de difusión de sus ideas. Las redes son herramientas de polarización e injerencia sofisticadas. Los bulos creados con inteligencia artificial (IA) generan una realidad falsa indistinguible y amenazan la democracia. La propia IA nace con sesgos que no son inocentes. Detrás de todo este arsenal hay una estrategia que el filósofo hongkonés Jianwei Xun define como “hipnocracia”, un concepto que Cecilia Danesi, investigadora en el Instituto de Estudios Europeos y Derechos Humanos (Universidad Pontificia de Salamanca), resume como “dictadura digital que permite modular directamente estados de conciencia” mediante la “manipulación a través de las historias que consumimos, compartimos y creemos”. La finalidad es la eliminación de una ciudadanía crítica e informada, y precisa de la supresión de cualquier salvaguarda.
Jianwei Xun, autor de Hipnocracia: Trump, Musk y la
nueva arquitectura de la realidad (aún no editado en español), afirma
que este régimen es “el primero que opera directamente en la conciencia”: “No
reprime el pensamiento, sino que induce y manipula los estados emocionales”. El
objetivo es “adormecer el pensamiento crítico” utilizando la información como
“humo hipnótico” a partir de “abrumar los sentidos con estímulos constantes” y
conseguir que “realidad y simulación se vuelvan sinónimos”.
Para Danesi, integrante del reciente encuentro AI Action Summit celebrado en
Cannes (Francia) que abordó la situación, esta fragmentación
“erosiona y cambia radicalmente la manera en que los ciudadanos perciben la
realidad y toman decisiones políticas, una situación que exige un análisis
profundo y una regulación eficaz”. “La primera perjudicada es, sin duda, la
democracia”, alerta.
El poder evoluciona más allá de la fuerza física y la persuasión lógica. Se ha vuelto gaseoso, invisible, capaz de infiltrarse en todos los aspectos de nuestras vidas.
En estas condiciones, según escribe el pensador hongkonés, “el poder evoluciona más allá de la fuerza física y la persuasión lógica”. “Se ha vuelto gaseoso, invisible, capaz de infiltrarse en todos los aspectos de nuestras vidas (…) Estamos en un estado permanente de hipnosis donde la conciencia permanece atrapada, pero nunca completamente tranquila”, sostiene.
Como ha recordado en el foro francés Gianluca Misuraca,
director científico de la iniciativa europea AI4Gov, los sumos “sacerdotes” de
este nuevo régimen son el presidente de EE UU, Donald Trump, y su mano derecha,
el multimillonario Elon Musk. Ambos lideran lo que Jianwei Xun identifica como
“capitalismo digital”, donde “los algoritmos no son herramientas de cálculo y
pronóstico, sino tecnología hipnótica de masas”. Según abunda Danesi,
codirectora del máster en gobernanza ética de la IA en la UPSA, “la hipnocracia
permite una injerencia más profunda y silenciosa, manipula nuestro pensamiento
sin que nos demos cuenta, lo cual es más peligroso todavía porque es más
difícil de advertir”.
Y para que la capacidad hipnótica de este exacerbado
liberalismo digital funcione hay una premisa fundamental: la ausencia de
regulación. Empresas de redes sociales, como X, propiedad de Musk, o Meta, de
Mark Zuckerberg, han eliminado la moderación de contenidos.
Otras plataformas de IA han comenzado a eliminar restricciones a respuestas
sobre cuestiones potencialmente dañinas.
El Instituto Nacional de Estándares y Tecnología (NIST, por
sus siglas en inglés) ha requerido a los científicos del Instituto de Seguridad
de Inteligencia Artificial de EE UU (AISI, por sus siglas en inglés), creado
por Joe Biden en 2023 para anticipar los problemas que pueda generar la IA, a
que eludan el desarrollo de herramientas “para autenticar y rastrear la
procedencia de los contenidos” o “etiquetar” el elaborado con los nuevos
modelos de lenguaje. Trump rechaza la moderación de contenidos y reclama su
supresión en aras de una supuesta libertad de expresión. Una orden ejecutiva emitida
por el presidente estadounidense en enero justifica la medida: “Para mantener
el liderazgo, debemos desarrollar sistemas de IA que estén libres de sesgos
ideológicos o agendas sociales diseñadas”.
“Es una falacia”, replica Danesi: “Esta idea de a mayor
regulación menor desarrollo o progreso es una idea falsa porque los sectores
más regulados, como el farmacéutico o los bancos, son los que más ganancias
tienen. El problema es cuando la regulación está mal hecha y eso sí implica una
obstrucción a la innovación. La clave está en cómo regular para garantizar
valores supremos como los derechos humanos o fundamentales”.
La proliferación de
imágenes generadas por IA que fundamentan noticias falsas (deep fakes),
la fácil viralización del contenido, independientemente de su veracidad, y las
narrativas manipuladas han convertido la desinformación en una de las amenazas
más graves para los sistemas democráticos
Esta ausencia de control y moderación genera, según explica la investigadora, “la proliferación de imágenes generadas por IA que fundamentan noticias falsas (deep fakes), la fácil viralización del contenido, independientemente de su veracidad, y las narrativas manipuladas”. “Han convertido la desinformación en una de las amenazas más graves para los sistemas democráticos”, advierte.
Ante esta situación, y en contradicción con el liberalismo
sin límites en la red defendido por Trump y plataformas tecnológicas masivas,
la mayoría de los usuarios de herramientas digitales piden restricciones al
contenido dañino internet, como las amenazas físicas, la difamación, la
intolerancia y el odio, según una encuesta a gran escala realizada
por la Universidad Técnica de Múnich (TUM) y la Universidad de Oxford en 10
países de Europa, América, África y Australia, donde se ha prohibido el acceso
a redes sociales a los menores de 16 años.
De media, el 79% de los encuestados cree que las
incitaciones a la violencia en internet deben eliminarse. Los más favorables
(86%) son alemanes, brasileños y eslovacos mientras que, en EE UU, el apoyo a
estas restricciones baja al 63%.
Solo el 14% de todos los encuestados cree que las amenazas
deben mostrarse para que los usuarios puedan responder a ellas y el 17%
defiende que debe permitirse el contenido ofensivo para criticar a ciertos
grupos de personas o para que una opinión capte la atención (20%). El país con
el mayor nivel de respaldo a esta actitud es Estados Unidos (29%) y el apoyo
más bajo se registra en Brasil (9%).
A la pregunta de si prefieren redes con libertad de
expresión ilimitada o libres de odio o desinformación, en todos los países, la
mayoría optó por plataformas seguras frente a la violencia digital y la
información engañosa.
El 79% de los encuestados
cree que las incitaciones a la violencia en internet deben eliminarse. Los más
favorables (86%) son alemanes, brasileños y eslovacos mientras que, en EE UU,
el apoyo a estas restricciones baja al 63%.
Encuesta de la Universidad Técnica de Múnich (TUM) y la Universidad de Oxford en 10 países
“La mayoría de las personas quieren plataformas que
reduzcan el discurso de odio y el abuso. También en Estados Unidos, un país con
un compromiso histórico con la libertad de expresión en el sentido más amplio”,
comenta Yannis Theocharis, principal autor del estudio y profesor de Gobernanza
Digital en la Escuela de Política y Políticas Públicas de Múnich.
No obstante, según matiza Spyros Kosmidis, coautor del
trabajo y profesor de Política en la Universidad de Oxford, “Los resultados
también muestran que no hay un consenso universal en relación con la libertad
de expresión y la moderación. Las creencias de las personas dependen en gran
medida de las normas culturales, las experiencias políticas y las tradiciones
jurídicas de los distintos países. Esto hace que la regulación global sea más
difícil”.
Tampoco está claro quién debe mantener la seguridad en
internet frente a contenidos dañinos y los porcentajes se reparten de forma
similar entre quienes atribuyen esta responsabilidad a las plataformas, a los
gobiernos o a los propios usuarios.
En cualquier caso, sea quien sea el responsable, la mayoría
de los usuarios (59%) considera que los contenidos ofensivos, de intolerancia u
odio son inevitables y cuentan con reacciones de esta naturaleza (65% de media
y 73% en Estados Unidos) cada vez que publican algo.
“Notamos una resignación generalizada. La gente tiene la
impresión de que, a pesar de todas las promesas de lidiar con el contenido
ofensivo, nada está mejorando. Este efecto de aclimatación es un gran problema
porque está socavando gradualmente las normas sociales y normalizando el odio y
la violencia”, advierte Yannis Theocharis.
Ivado, un grupo de investigación canadiense, e Iniciativa AI y Sociedad de la
Universidad de Ottawa, proponen cuatro medidas para
evitar la erosión del sistema de convivencia democrático: un marco regulatorio
claro que incluya normas para la IA durante las elecciones, códigos de
conductas en este campo para los partidos, equipos de seguimiento con planes de
respuesta a amenazas y la creación de un consorcio internacional para actuar en
caso de interferencia.
“Con nuestras democracias amenazadas, la interferencia
impulsada por la IA requiere acciones rápidas y concretas por parte de los
líderes, tanto a nivel nacional como internacional. Sin un esfuerzo global
concertado para alinear las leyes, crear capacidad y desarrollar procesos para
mitigar los riesgos de la IA, las democracias de todo el mundo siguen siendo
vulnerables”, advierte el profesor Florian Martin-Bariteau,
director de la Iniciativa IA y Sociedad de la Universidad de Ottawa.
Europa
comenzó a andar ese camino normativo con la AI act, pero Danesi lamenta: “Ante la
coyuntura internacional, la UE ha puesto el freno de mano por esta idea de que,
si sobrerregulamos, frenamos la innovación”. “Pero no se trata de dejar de
regular, sino de cómo lo hacemos, de qué valores tenemos y queremos potenciar”,
insiste.-
No hay comentarios:
Publicar un comentario