¿Lo sabías?

La IA se autodestruirá; es como la enfermedad de las vacas locas: los expertos en tecnología no se preocupan por la aceleración del desarrollo

¡Por favor comparte nuestra historia!

A medida que la inteligencia artificial se expande rápidamente por todos los ámbitos de la vida moderna, la narrativa dominante sigue siendo la de la inevitabilidad. Con modelos más inteligentes y una automatización total, muchos se sienten catapultados hacia un futuro remodelado por máquinas que superan a los humanos en casi todo. Pero cada vez más, los expertos en tecnología expresan puntos de vista alternativos: que la trayectoria no es saludable, sostenible ni inevitable. Dan Houser, cofundador de Rockstar Games, comparó recientemente el auge actual con la enfermedad de las vacas locas, afirmando que se trata de un sistema que se retroalimenta a sí mismo y que eventualmente se volverá fundamentalmente inestable. Es una analogía provocadora que plantea una pregunta más profunda que puede brindar alivio a algunos: ¿qué pasaría si las fallas que emergen en la IA no fueran errores que deban corregirse, sino limitaciones estructurales que impedirán que la tecnología realmente "domine el mundo"? 

La IA se devora a sí misma como la enfermedad de las vacas locas Los expertos en tecnología exponen la fragilidad No les preocupa el desarrollo

La analogía de la vaca loca: ¿la IA se está devorando a sí misma?

La comparación de Houser se basa en una lección histórica específica. La enfermedad de las vacas locas se propagó cuando el ganado fue alimentado con restos procesados ​​de otro ganado, creando un ciclo cerrado de material biológico degradado que finalmente produjo una insuficiencia neurológica catastrófica. Su argumento es que la inteligencia artificial, en lugar de volverse invencible y dominar el mundo, está en realidad derivando hacia un patrón similar. Los modelos se entrenan cada vez más con resultados sintéticos previamente generados por otros sistemas de IA, no con conocimiento creado por humanos. 

En esencia, a medida que los modelos automatizados continúan creciendo, una mayor parte de lo que vemos en internet es generado por los mismos sistemas. Por lo tanto, a medida que los modelos nuevos y existentes se entrenan más, en realidad solo procesan sus propios resultados. Los investigadores ya han documentado un fenómeno conocido como colapso del modelo, donde los sistemas generativos entrenados repetidamente con datos generados por IA se vuelven menos precisos, menos diversos y más alejados de la realidad con el tiempo. En lugar de que su inteligencia se amplíe, los sistemas terminan vaciándose, reforzando sus errores originales y aplanando los matices. 

Un problema creciente del que los líderes tecnológicos no hablan

El marketing de IA dirigido al público se centra en la escala: más datos, más integración, más parámetros. Sin embargo, de lo que no se habla es de la creciente escasez de material de formación de alta calidad generado por personas. Gran parte del internet abierto ya ha sido absorbido por los modelos existentes, lo que significa que lo que queda está cada vez más contaminado por spam, ruido automatizado y otras formas de contenido de IA. 

Los grandes modelos lingüísticos, sin acceso a aportaciones humanas continuamente renovadas, como el arte, el razonamiento, la escritura y la experiencia vivida genuina, corren un grave riesgo de estancamiento o regresión. La ironía es evidente: a medida que más contenido automatizado inunda la web, menos fiable se vuelve como fuente de aprendizaje. 

La crítica de Houser va más allá de la arquitectura técnica. Argumenta que quienes más impulsan la adopción total de la IA suelen ignorar los costes intelectuales y culturales, priorizando la eficiencia sobre la comprensión adecuada. En sus propias palabras, estos ejecutivos no son personas integrales que limitan la perspectiva en los círculos de toma de decisiones. 

Lo que los videojuegos nos enseñan sobre la IA

Rockstar Games, cofundada por Houser, construyó su reputación basándose en la complejidad creada por el ser humano, incluyendo la sátira, la textura cultural y la creatividad en general. Estas son precisamente las cualidades que la IA generativa tiene dificultades para reproducir de forma convincente.  

Si bien los modelos pueden generar diálogos, texturas y fragmentos de código, carecen de un sentido interno de significado, motivación o consecuencia. Estas son cualidades esenciales para la narración y la creación de mundos, y los desarrolladores de juegos se han topado desde hace mucho tiempo con las limitaciones de la IA en la práctica. Estas ponen de relieve un problema más amplio: la IA puede imitar la forma, pero no comprende el contexto. Puede predecir qué... debo viene después, pero no por qué Debería venir después. 

Otros están haciendo sonar la misma alarma

Houser es solo un ejemplo de un número creciente de ejecutivos tecnológicos preocupados que comparten una opinión similar. A menudo advierten que los sistemas de IA son frágiles, están sobrevalorados y están fundamentalmente desalineados con la inteligencia artificial. realmente funciona  

Las salidas seguras pero falsas a menudo se denominan "alucinaciones". Actúan como señales de que estos sistemas en realidad no... know Cualquier cosa en sentido humano. También existe la preocupación por el aumento vertiginoso de los costos energéticos, los cuellos de botella de datos y la disminución de los rendimientos a medida que los modelos escalan. Circulan rumores de que el escalamiento forzado y el intento de expandirse lo más rápido posible están, de hecho, alcanzando límites económicos y físicos. 

Quizás resulte tranquilizador que el temor a una superinteligencia descontrolada empiece a parecer menos una amenaza inminente y más una distracción de los riesgos reales: la homogeneización cultural, la desinformación y la excesiva dependencia institucional de sistemas que nunca podrán funcionar como seres humanos. 

¿Son estas limitaciones de la IA algo bueno?

Esta debilidad estructural podría ser precisamente lo que previene la catástrofe. Si los sistemas de IA se degradan al aislarse de la intervención humana, jamás podrán convertirse en formas de inteligencia autosuficientes. Permanecen parasitarios de la creatividad y el juicio humanos, y esa dependencia socava las imágenes populares de ciencia ficción de máquinas que se mejoran de forma autónoma, más allá del control humano. 

En ese sentido, la IA podría ser más un amplificador que un sustituto. Puede ser una herramienta poderosa, pero fundamentalmente limitada. Quizás pueda acelerar patrones ya presentes en la sociedad, pero no puede generar significado, ética ni propósito por sí sola. Puede que no sea... inofensivo, pero empieza a aparecer limitado

El verdadero riesgo detrás de todo esto

El peligro más grave en este caso no sería la IA en sí, sino cómo las instituciones responden a ella. Corporaciones, medios de comunicación e incluso gobiernos consideran cada vez más fiables los resultados de la IA, incluso cuando su precisión es incierta. Con el tiempo, esto degrada la experiencia humana, la responsabilidad y el pensamiento crítico. 

Si el material generado por IA se convierte en el punto de referencia predeterminado en derecho, periodismo, educación o políticas, por ejemplo, los errores dejan de ser errores aislados y pasan a ser fallos sistémicos. Este es el verdadero riesgo de la "vaca loca": no que las máquinas se rebelen, sino que los humanos externalicen el juicio hasta que el ciclo de retroalimentación implosione.  

Houser simplemente pregunta si la sociedad está confundiendo la automatización con la sabiduría y la velocidad con el progreso. 

Pensamiento final

Si la IA está realmente entrando en su fase de "vacas locas", entonces la fantasía y el miedo al dominio total de las máquinas parecen menos convincentes. Esto puede decepcionar a los futuristas y alarmistas, pero debería tranquilizar a todos los demás.  

El futuro sin duda requiere juicio, creatividad y comprensión humanos. Si tomamos argumentos como los de Houser, el peligro no es que la IA reemplace a todos, y no parece que la IA pueda dominar el mundo. Pero eso no significa que no terminemos rindiéndola voluntariamente al depender demasiado de modelos automatizados mientras tanto. 

Su gobierno y las grandes organizaciones tecnológicas
Intenta silenciar y cerrar The Expose.

Por eso necesitamos tu ayuda para garantizar
Podemos seguir brindándote el
hechos que la corriente dominante se niega a aceptar.

El gobierno no nos financia
publicar mentiras y propaganda sobre sus
en nombre de los principales medios de comunicación.

En cambio, dependemos únicamente de su apoyo. Así que
Por favor, apóyanos en nuestros esfuerzos para llevar
tu periodismo honesto, confiable e investigativo
Hoy. Es seguro, rápido y fácil.

Elija su método preferido a continuación para mostrar su apoyo.

¡Manténgase actualizado!

Manténgase conectado con las actualizaciones de noticias por correo electrónico

Carga


¡Por favor comparte nuestra historia!
avatar del autor
g.calder
Soy George Calder, un buscador de la verdad de toda la vida, un entusiasta de los datos y un cuestionador sin complejos. He pasado casi dos décadas revisando documentos, descifrando estadísticas y cuestionando narrativas que no resisten el escrutinio. Mi escritura no se basa en opiniones, sino en evidencia, lógica y claridad. Si no se puede respaldar, no tiene cabida en la historia. Antes de unirme a Expose News, trabajé en investigación académica y análisis de políticas, lo que me enseñó una cosa: la verdad rara vez se escucha a gritos, pero siempre está ahí, si sabes dónde buscar. Escribo porque el público merece más que titulares. Merece contexto, transparencia y la libertad de pensar críticamente. Ya sea que esté analizando un informe gubernamental, datos médicos o exponiendo el sesgo de los medios, mi objetivo es simple: ir más allá del ruido y presentar los hechos. Cuando no estoy escribiendo, me encontrarás haciendo senderismo, leyendo libros de historia poco conocidos o experimentando con recetas que nunca salen bien.
5 3 votos
Valoración del artículo
Suscríbete
Notificar de
invitado
9 Comentarios
Comentarios en línea
Ver todos los comentarios
Ingrid C. Durden
Ingrid C. Durden
Hace 1 mes

Absolutamente. En mi opinión, una máquina no puede superar el rendimiento de lo que se le está metiendo. Y necesita reparaciones. Hay que repararla; no creo que exista una máquina que se repare sola. Cuando las computadoras se convirtieron en bienes comunes, nos dijeron que no habría necesidad de registros en papel. Pero cuando tu computadora se estropea, sigues necesitando la clásica libreta de direcciones.

Antiguo
Antiguo
Responder a  Ingrid C. Durden
Hace 1 mes

En efecto, pero creo que hay una tendencia general a pasar por alto el verdadero problema, que es nuestra dependencia de los sistemas de información. De ahí surge la autoridad otorgada a los sistemas inteligentes, por muy tontos o dementes que sean. Es precisamente su demencia la que nos matará mucho antes de destruirse a sí misma. Y no porque nos quiera específicamente muertos, sino porque administradores perezosos otorgan autoridad a los sistemas, y porque la aceptamos. "La computadora dice que no" - "Eh, vale, supongo". Cada vez que un sistema toma una decisión sin intervención humana, estamos en serios problemas. Esto se remonta a muchos años antes de que la IA existiera, quizás a la década de 1970. Ya saben, como cuando a mi tía le enviaron una factura de cero libras porque no había gastado nada en su cuenta, y la empresa amenazó con cerrarla. Al final, la única solución fue que les enviara un cheque de cero libras y cero peniques. El fallo se solucionó, por supuesto, pero el verdadero problema era estructural: los humanos tenían que obedecer a una máquina para que estuviera contenta.

Joan Jacob
Joan Jacob
Hace 1 mes

Cuando llamas a una empresa u organización y una IA responde a tu problema, es prácticamente imposible resolverlo. No se puede razonar con un robot y, con el tiempo, a todas las pequeñas empresas les resultará cada vez más difícil, ya que es imposible hablar con una persona capaz de resolver su problema.
Esto ya está causando problemas con bancos y servicios esenciales como las compañías telefónicas y eléctricas. La situación se agrava si no puedes hablar con alguien que te entienda.

Charlie Seattle
Charlie Seattle
Responder a  Joan Jacob
Hace 1 mes

¿No hablo?

Rebecca Denhoff
Rebecca Denhoff
Hace 1 mes

Siempre dudé de que la IA se convirtiera en Hal. De lo que no dudo es de la pereza, la maldad y la incompetencia de los seres humanos que buscan un camino más fácil y no les importa lo descuidada, criminal e injusta que podría volverse la IA si se le permitiera tomar decisiones en el gobierno escupiendo algoritmos regurgitados y degradados. Especialmente en, digamos, el sistema judicial o el sistema tributario. Los burócratas suelen ser liberales chiflados cuyos propios sistemas operativos están degradados. Y aunque quizás haya menos empleados, entre la IA y estos idiotas, la vida podría volverse bastante miserable para el ciudadano. La IA siempre requerirá la supervisión astuta de personas responsables, sensatas y virtuosas. Simplemente no veo que eso suceda, donde los ricos y poderosos son en su mayoría criminales de remate.

Peter
Peter
Hace 1 mes

El mayor riesgo reside menos en las máquinas que en la monstruosa clase de "techbros" que las poseen y dirigen. Su naturaleza adquisitiva, sin duda reflejada en su callejón sin salida de la supuesta creatividad a través de la IA, es la verdadera amenaza, como demuestra el fracaso de las leyes antimonopolio en EE. UU., que demuestra que la red de las megacorporaciones —Blackrock y otras— está alcanzando una dictadura descontrolada, a saber, Thiel/Palantir y el Xempire de Musk. El resto luchará por unas pocas migajas simbólicas que representan nuestra propiedad de la nada y la felicidad.

Charlie Seattle
Charlie Seattle
Hace 1 mes

¿Quién escribe las mentiras que arroja IA?

Paul Watson
Paul Watson
Responder a  Charlie Seattle
Hace 1 mes

Hay que desafiar a la IA para obtener respuestas reales.
Pregunté sobre el asesinato de Charlie Kirk y arrojó la narrativa en línea, pero presentó los hechos que rodearon el asesinato y el encubrimiento y ¡bingo! Fue muy impresionante.

John Hart
John Hart
Hace 1 mes

La IA es absolutamente necesaria para que las personas se mantengan libres en el mundo de la alta tecnología en constante evolución. Desafortunadamente, la IA que tanto se promociona (IAG) no solo no puede cumplir lo que prometen sus promotores, sino que la falsa creencia de que sí puede es extremadamente peligrosa. Quienes entienden de ciencias de la información ya bromean sobre rescatar partes de los sistemas gigantescos después de que fallan y se apagan. Ese sería el escenario "bueno", el malo refleja la estafa del calentamiento global antropogénico (AGW) que se ha desmoronado, pero miles de millones de personas aún creen en ella.

La IA capaz de ayudar a la humanidad necesita distribuirse y las personas deben estar capacitadas para programarla según sus necesidades individuales. El software del que dependen las personas, al igual que la medicina, debe ser... ¡FUENTE ABIERTA! El peligro en ambos campos ha ido creciendo durante años porque se permitió a los oligarcas tomar el control de los organismos reguladores, los medios de comunicación y casi todo aquello de lo que depende la gente.

Necesitamos un nuevo sistema tributario que impida la formación de monopolios y potencie la formación de capital individual. El sistema actual hace exactamente lo contrario, y el gobierno que supuestamente debe mantener el equilibrio del capitalismo fue capturado hace mucho tiempo. El PAT-SAT está diseñado para restablecer el equilibrio económico para que las personas puedan prosperar.