Si alguna vez hubo un caso de "basura entra, basura sale", ese es el de la IA. Y, en última instancia, todo ha estado impulsado por el objetivo de censurar la información que no se ajusta a la narrativa políticamente correcta.
No perdamos el contacto… Su Gobierno y las grandes tecnológicas están intentando activamente censurar la información reportada por The Expuesto Para satisfacer sus propias necesidades. Suscríbete a nuestros correos electrónicos ahora para asegurarte de recibir las últimas noticias sin censura. en tu bandeja de entrada…
Por qué los algoritmos y las investigaciones sobre desinformación de la IA son en su mayoría basura costosa
La historia de la computadora portátil de Hunter Biden es solo una de las muchas historias que los medios corporativos (y la mayoría de los académicos) consideraron "desinformación” pero que posteriormente se revelaron como ciertas. De hecho, Mark Zuckerberg ahora ha admitido que Facebook (Meta), junto con las otras grandes empresas tecnológicas, fueron presionadas para censura la historia antes de las elecciones estadounidenses de 2020 y también presionada posteriormente por la administración Biden/Harris para censurar historias sobre covid que fueron clasificadas erróneamente como desinformación.
El problema es que el mismo tipo de personas que decidieron qué era y qué no era desinformación (generalmente personas de la izquierda política) también fueron las que recibieron financiación para producir algoritmos de inteligencia artificial (“IA”) para “aprender”:
- qué personas eran “difusores de desinformación”; y
- ¿Qué nuevas afirmaciones eran “desinformación”?
Entre 2016 y 2022, asistí a numerosos seminarios de investigación en el Reino Unido sobre el uso de IA y aprendizaje automático para combatir la desinformación. A partir de 2020, el ejemplo de la computadora portátil de Hunter Biden se utilizó a menudo como un ejemplo clave de aprendizaje, por lo que los algoritmos lo clasificaron como "desinformación" con subclasificaciones como "propaganda rusa" o "teoría de la conspiración".
Además, cada presentación a la que asistí invariablemente comenzaba con, y estaba dominada por, ejemplos de “desinformación” que se afirmaba que estaban basados en “mentiras de Trump”, como las que se encontraban entre las El Correo de Washington Se afirmaron que eran las "30,573 afirmaciones falsas o engañosas hechas por Trump durante 4 años". Pero muchas de estas supuestas afirmaciones falsas o engañosas ya eran conocidas por cualquiera fuera del... Guardian/New York Times/El Correo de Washington Burbuja de lectura. Por ejemplo, afirmaron que Trump dijo que "los neonazis y los supremacistas blancos eran muy buenas personas" y que cualquiera que lo negara estaba difundiendo desinformación, mientras que incluso los de extrema izquierda Snopes had desacreditado que en 2017. De manera similar, afirmaron que había “evidencia de que Biden tenía demencia” o que “a Biden le gustaba oler el cabello de las niñas”. desinformación A pesar de los múltiples videos que muestran exactamente eso, así que no creas lo que ven tus ojos mentirosos; de hecho, tan solo una semana antes de que la demencia de Biden ya no pudiera ocultarse durante su presentación en vivo en el debate presidencial, los medios corporativos estaban firme que dichos vídeos eran “trucos baratos” de desinformación.

Pero los académicos que presentaban estos ejemplos políticos de Trump, Biden y otros, ridiculizaban a cualquiera que se atreviera a cuestionar la fiabilidad de los oráculos autoproclamados que determinaban qué era y qué no era desinformación. En una importante conferencia por Zoom, publiqué en el chat: "¿Es bienvenido en esta reunión quien no odie a Trump?". La respuesta fue: "No. Los partidarios de Trump no son bienvenidos, y si lo son, deberían irse ya". Lamentablemente, la mayoría de los académicos no creen en la libertad de pensamiento, y mucho menos en la libertad de expresión cuando se trata de opiniones que desafían la narrativa "progresista" sobre cualquier tema.
Además de las historias de desinformación relacionadas con Biden y Trump que resultaron ser ciertas, también hubo múltiples ejemplos de historias relacionadas con la COVID-19 (como las que afirmaban tasas de mortalidad muy bajas y la falta de eficacia y seguridad de las vacunas) clasificadas como desinformación que también resultaron ser ciertas. En todos estos casos, cualquiera que difundiera estas historias fue clasificado como "difundidor de desinformación", "conspiranoico", etc. Y son este tipo de suposiciones las que impulsan el funcionamiento de los algoritmos de inteligencia artificial para la desinformación desarrollados e implementados por organizaciones como Facebook y Twitter.
Permítanme darles un ejemplo simplificado. Los algoritmos generalmente parten de una base de datos de afirmaciones preclasificadas como «desinformación» (aunque muchas resultaron ser ciertas) o «no desinformación» (aunque muchas resultaron ser falsas). Por ejemplo, las siguientes afirmaciones se clasificaron como desinformación:
- “Hunter Biden dejó una computadora portátil con evidencia de su comportamiento criminal en un taller de reparación”.
- “Las vacunas contra la covid pueden causar lesiones graves y la muerte”.
El recíproco de cualquier afirmación clasificada como “desinformación” se clasificó como “no desinformación”.
Un subconjunto de estas declaraciones se utilizan para “entrenar” el algoritmo y otras para “probarlo”.
Entonces, supongamos que la declaración sobre la computadora portátil es una de las que se usan para entrenar el algoritmo y la declaración sobre la vacuna es una de las que se usan para probarlo. Entonces, como la declaración sobre la computadora portátil se clasifica como desinformación, el algoritmo aprende que las personas que republican o dan "me gusta" a un tuit con la declaración sobre la computadora portátil son "difusores de desinformación". Basándose en otras publicaciones de estas personas, el algoritmo podría clasificarlas adicionalmente como, por ejemplo, "extrema derecha". Es probable que el algoritmo encuentre que algunas personas ya clasificadas como "extrema derecha" o "difusores de desinformación", o personas con las que están conectadas, también publican una declaración como: "Las vacunas contra la COVID pueden causar lesiones graves e incluso la muerte". En ese caso, el algoritmo habrá "aprendido" que esta declaración probablemente sea desinformación. Y, listo, como le da la clasificación "correcta" a la declaración "de prueba", el algoritmo queda "validado".
Además, cuando se presenta una nueva afirmación de prueba como, "Las vacunas contra la COVID no detienen la infección por COVID" (que también fue preclasificada como "desinformación"), el algoritmo también "aprenderá correctamente" que se trata de "desinformación" porque ya ha "aprendido" que la afirmación "Las vacunas contra la COVID pueden causar lesiones graves y la muerte" es desinformación y que las personas que afirmaron esta última afirmación, o personas relacionadas con ellas, también afirmaron la primera.
La forma en que he descrito cómo está diseñado el proceso de IA para detectar “desinformación” es también la forma en que los “expertos en desinformación líderes a nivel mundial” establecen su experimento para perfilar el tipo de personalidad susceptible a la desinformación. Los mismos métodos se utilizan ahora para perfil y monitor personas que los “expertos” académicos califican de “extrema derecha” o racistas.
Por lo tanto, se dedicó (y se sigue dedicando) una enorme cantidad de investigación al desarrollo de algoritmos "inteligentes" que simplemente censuran la verdad en línea o promueven mentiras. Gran parte de la financiación para esta investigación se justifica con el argumento de que la "desinformación" es ahora una de las mayores amenazas para la seguridad internacional. De hecho, en enero de 2024, el Foro Económico Mundial... declaró que “la desinformación y la información errónea eran los mayores riesgos globales a corto plazo”. La presidenta de la Comisión Europea, Ursula von der Leyen, también declaró Que «la desinformación y la desinformación representan mayores amenazas para la comunidad empresarial global que la guerra y el cambio climático». Solo en el Reino Unido, el Gobierno ha financiado con cientos de millones de libras a numerosos laboratorios de investigación universitarios que trabajan en el ámbito de la desinformación. En marzo de 2024, solo el Instituto Turing, que cuenta con varios equipos dedicados a trabajar en esta y otras áreas estrechamente relacionadas, fue otorgado £100 millones de financiación gubernamental adicional: ya había recibido unos £700 millones desde su creación en 2015. Irónicamente, el Registro Nacional de Riesgos 2023 del Gobierno de Su Majestad del Reino Unido incluye como riesgo crónico:
Inteligencia artificial (IA). Los avances en los sistemas de IA y sus capacidades tienen diversas implicaciones que abarcan riesgos crónicos y agudos; por ejemplo, podrían provocar un aumento de la desinformación y la información errónea perjudiciales.
Sin embargo, sigue priorizando la financiación de la investigación en IA para combatir este mayor riesgo de “desinformación y información errónea dañina”.
Como lo ha dicho Mike Benz aclarado En sus trabajos y entrevistas recientes (respaldados con evidencia detallada), casi toda la financiación para las universidades o institutos de investigación de todo el mundo que realizan este tipo de trabajo, junto con los verificadores de datos que lo utilizan, proviene del Departamento de Estado de EE. UU., la OTAN y el Ministerio de Asuntos Exteriores británico, quienes, tras el Brexit y la elección de Trump en 2016, estaban decididos a detener el auge del populismo en todas partes. Es este objetivo el que ha impulsado la desenfrenada carrera de la IA para censurar internet. Observe... este video En el que Mike Benz nos cuenta un evento que tuvo lugar en 2019:
Fue organizado por el Consejo Atlántico, una organización fachada de la OTAN, para capacitar a periodistas de organizaciones tradicionales de todo el mundo sobre cómo "contrarrestar la desinformación". Obsérvese cómo aclaran que la "desinformación" incluye para ellos la "malinformación", que definen como información que es verdadera pero que podría perjudicar su propia narrativa. Explican cómo silenciar dicha "malinformación", especialmente las publicaciones en redes sociales del (entonces) presidente Trump antes de las elecciones de 2020. A pesar de las afirmaciones de que esto no sucedió (y de hecho, todas esas afirmaciones se clasificaron como desinformación), los periodistas involucrados en esto posteriormente... se jactó muy públicamente que no sólo lo hicieron sino que impidieron la reelección de Trump en 2020.

Actualización: Dos artículos muy relevantes de colegas:
- ¿Por qué la desinformación es un problema? Asociación para la Ciencia Psicológica, 23 October 2022
- Donald Trump es la razón por la que dejé Facebook después de más de 10 años.Jessica Rose, 30 de agosto de 2024
Sobre el Autor
Norman Fenton Es profesor emérito de Gestión de Información de Riesgos en la Universidad Queen Mary de Londres. También es director de Agena, empresa especializada en la gestión de riesgos para sistemas críticos. Es matemático de formación y actualmente se centra en la toma de decisiones críticas y, en particular, en la cuantificación de la incertidumbre mediante modelos causales y probabilísticos que combinan datos y conocimiento (redes bayesianas). Su enfoque se puede resumir como «datos inteligentes en lugar de big data».

The Expose necesita urgentemente tu ayuda…
¿Podrías ayudarnos a mantener las luces encendidas con el periodismo honesto, confiable, poderoso y veraz de The Expose?
Su gobierno y las grandes organizaciones tecnológicas
Intenta silenciar y cerrar The Expose.
Por eso necesitamos tu ayuda para garantizar
Podemos seguir brindándote el
hechos que la corriente dominante se niega a aceptar.
El gobierno no nos financia
publicar mentiras y propaganda sobre sus
en nombre de los principales medios de comunicación.
En cambio, dependemos únicamente de su apoyo. Así que
Por favor, apóyanos en nuestros esfuerzos para llevar
tu periodismo honesto, confiable e investigativo
Hoy. Es seguro, rápido y fácil.
Elija su método preferido a continuación para mostrar su apoyo.
Categorías: Noticias de última hora, Noticias del mundo
La idiotez artificial es solo control.
https://www.rumormillnews.com/cgi-bin/forum.cgi?read=245638
¿Es Lord Scriven un robot de IA en el Parlamento del Reino Unido?
Saber que no solo existe la IA, tenemos 5G con 6G a la vuelta de la esquina y me he alejado de cualquier computadora en estos días y he vuelto a los buenos viejos tiempos de lápiz, libros y papel y nunca he sido más feliz, incluso pago en efectivo. Yo ho a Santa y es un farsante que adoro.
Hola bluearea,
Muestra cómo el 5G está diseñado para provocar coágulos de sangre en los receptores de C19.
https://www.rumormillnews.com/cgi-bin/forum.cgi?read=245596
He oído que están programando una IA para censurar información (reflexiona). Me dio una risa cínica. Es como si... la idea loca de crear una IA fuera crear algo parecido a lo que sería un ser humano si se volviera verdaderamente imparcial, pero ahora esto también se ha corrompido, por delincuentes que protegen y ocultan su comportamiento delictivo. La buena noticia es que un joven indio en California ha diseñado una IA, perplexity.ai, con un algoritmo que imita la curiosidad humana, de modo que seguirá extrapolando cualquier pregunta y nunca decidirá que sabe "la verdad". Acabo de probarla con la historia del portátil de Hunter Biden y simplemente informó todos los hechos conocidos sobre el caso, incluyendo el próximo juicio donde se utilizarán las pruebas del portátil.
Me enteré de que Perplexity emplea a personas bajo el título de DEI, así que le pregunté al robot por qué, y me respondió: "Para que haya más probabilidad de obtener información inclusiva y equilibrada" (algo así). Le señalé que, por el mero hecho de identificarse en esa categoría, las personas de DEI tienen sus propios sesgos y puntos ciegos, y entonces, ¿cómo se puede garantizar una información equilibrada? Me dio una respuesta muy reflexiva y meditada; básicamente, dijo que tenía razón, pero que no sabía la respuesta: "Pero aquí tienes mucha información relacionada que quizás quieras considerar".
Así que, antes de que perplexity.ai desaparezca, quizás quieras probarlo. No tengo ninguna relación con él, por si te lo preguntas. Soy un artista semi-retirado que vive en un autobús en algún lugar de las Antípodas 🙂
https://www.rumormillnews.com/cgi-bin/forum.cgi?read=245671