Silicon Valley está más cerca que nunca de los ejércitos del mundo. Y no se trata solo de las grandes empresas, sino también de las startups.
La guerra en Ucrania ha acentuado la urgencia de introducir más herramientas de IA en el campo de batalla. Quienes más tienen que beneficiarse son empresas emergentes como Palantir, que esperan obtener beneficios a medida que los ejércitos se apresuran a actualizar sus arsenales con las últimas tecnologías. Sin embargo, las antiguas preocupaciones éticas sobre el uso de la IA en la guerra se han vuelto más urgentes a medida que la tecnología avanza cada vez más, mientras que la posibilidad de restricciones y regulaciones que regulen su uso parece más remota que nunca.
No perdamos el contacto… Su Gobierno y las grandes tecnológicas están intentando activamente censurar la información reportada por The Expuesto Para satisfacer sus propias necesidades. Suscríbete a nuestros correos electrónicos ahora para asegurarte de recibir las últimas noticias sin censura. en tu bandeja de entrada…
En 30 June 2022, La OTAN anunció Está creando un fondo de innovación de 1 millones de dólares que invertirá en empresas emergentes en sus primeras etapas y en fondos de capital de riesgo que desarrollen tecnologías “prioritarias” como inteligencia artificial, procesamiento de big data y automatización.
El ejército chino probablemente gasta al menos 1.6 millones de dólares al año en IA, según un informe Por el Centro de Seguridad y Tecnologías Emergentes de Georgetown, y en EE. UU. ya se está impulsando significativamente la paridad, afirma Lauren Kahn, investigadora del Consejo de Relaciones Exteriores. El Departamento de Defensa de EE. UU. solicitó 874 millones de dólares para inteligencia artificial para 2022, aunque esa cifra no refleja el total de las inversiones en IA del departamento, según informó en un comunicado. 2022 de marzo informe.
No solo el ejército estadounidense está convencido de esta necesidad. Los países europeos, que tienden a ser más cautelosos a la hora de adoptar nuevas tecnologías, también están invirtiendo más dinero en IA, afirma Heiko Borchert, codirector del Observatorio de IA de Defensa de la Universidad Helmut Schmidt de Hamburgo, Alemania.
Los franceses y los británicos han identificado la IA como una tecnología de defensa clave, y la Comisión Europea, el brazo ejecutivo de la UE, ha destinado 1 millones de dólares para desarrollar nuevas tecnologías de defensa.
Desde que comenzó la guerra, el Reino Unido ha lanzado una nueva estrategia de IA específicamente para defensa, y los alemanes han destinado poco menos de 500 millones de dólares para investigación e inteligencia artificial dentro de una inyección de efectivo de 100.000 millones de dólares al ejército.
En un comunicado de prensa redactado vagamente en 2021, el ejército británico anunciado con orgullo Había utilizado IA en una operación militar por primera vez para proporcionar información sobre el entorno y el terreno circundantes. Estados Unidos está trabajando con empresas emergentes para desarrollar... vehículos militares autónomosEn el futuro, enjambres de cientos o incluso miles de drones autónomos que... US y Autoridad Británica Los ejércitos que se están desarrollando podrían llegar a ser armas poderosas y letales.
Muchos expertos están preocupados. Meredith Whittaker, asesora principal sobre IA en la Comisión Federal de Comercio y directora del profesorado del AI Now Institute, afirma que este impulso busca más enriquecer a las empresas tecnológicas que mejorar las operaciones militares.
En un artículo para la revista Prospect En coautoría con Lucy Suchman, profesora de sociología de la Universidad de Lancaster, argumentó que quienes impulsan la IA están alimentando la retórica de la Guerra Fría e intentando crear una narrativa que posiciona a las grandes tecnológicas como "infraestructuras nacionales críticas", demasiado grandes e importantes para desmantelarlo o regularlo. Advierten que la adopción de la IA por parte de las fuerzas armadas se presenta como algo inevitable en lugar de lo que realmente es: una decisión activa que implica complejidades éticas y compensaciones.
A pesar del avance constante de la IA en el campo de batalla, las preocupaciones éticas que provocaron las protestas en torno al Proyecto Maven no han desaparecido. El Proyecto Maven del Pentágono fue un intento de desarrollar sistemas de reconocimiento de imágenes para mejorar los ataques con drones. Google se retiró del Proyecto Maven en 2018 tras las protestas e indignación de sus empleados.
[Otras lecturas: La agencia de inteligencia se hace cargo del Proyecto Maven, el esquema de inteligencia artificial característico del Pentágono., C4ISRNET, 27 de abril de 2022]
Se han hecho algunos esfuerzos para disipar esas preocupaciones. Consciente de que tiene un problema de confianza, el Departamento de Defensa de EE. UU. ha implementado...inteligencia artificial responsable” directrices para desarrolladores de IA, y tiene sus propias guías éticas para el uso de IA. La OTAN tiene una Estrategia de IA que establece directrices éticas voluntarias para sus países miembros.
Todas estas directrices instan a los militares a utilizar la IA de una manera que sea legal, responsable, confiable y rastreable y buscan mitigar los sesgos incorporados en los algoritmos.
Uno de sus conceptos clave es que los humanos siempre deben mantener el control de los sistemas de IA. Pero a medida que la tecnología se desarrolle, eso no será realmente posible, afirma Kenneth Payne, quien dirige la investigación de estudios de defensa en el King's College de Londres y es autor del libro «Yo, Warbot: El amanecer del conflicto con inteligencia artificial".
“El objetivo de un sistema autónomo es permitirle tomar decisiones con mayor rapidez y precisión que un humano, y a una escala que este no puede”, afirma. “Te estás limitando si dices: 'No, vamos a recurrir a un abogado para cada decisión'”.
Existe una campaña global llamada Stop Killer Robots que busca prohibir las armas autónomas letales, como los enjambres de drones. Activistas, funcionarios de alto perfil como el secretario general de la ONU, António Guterres, y gobiernos como el de Nueva Zelanda argumentan que las armas autónomas son profundamente inmorales porque otorgan a las máquinas el control sobre decisiones cruciales y podrían perjudicar desproporcionadamente a las comunidades marginadas debido a sesgos algorítmicos.
Enjambres de miles de drones autónomos, por ejemplo, podrían convertirse en armas de destrucción masiva. Restringir estas tecnologías será una ardua batalla, ya que la idea de una prohibición global se ha topado con la oposición de grandes países con inversión militar, como Estados Unidos, Francia y el Reino Unido.
En última instancia, la nueva era de la IA militar plantea una serie de cuestiones éticas difíciles para las que todavía no tenemos respuesta.
Una de esas preguntas es, en primer lugar, cuán automatizadas queremos que sean las fuerzas armadas, afirma Payne. Por un lado, los sistemas de IA podrían reducir las bajas al hacer la guerra más focalizada, pero por otro, se está «creando en la práctica una fuerza mercenaria robótica para luchar en nuestro nombre», afirma.
Lo anterior son extractos tomados de un artículo titulado 'Por qué el negocio está en auge para las nuevas empresas militares de IA' publicado por MIT Technology Review el 7 de julio de 2022. Lea el artículo completo. AQUÍ.
Foto principal: Advertencia de IA: Los soldados robot están a solo 15 años de cambiar el rostro de la guerra, según un experto., Impact Lab, 28 de noviembre de 2020

The Expose necesita urgentemente tu ayuda…
¿Podrías ayudarnos a mantener las luces encendidas con el periodismo honesto, confiable, poderoso y veraz de The Expose?
Su gobierno y las grandes organizaciones tecnológicas
Intenta silenciar y cerrar The Expose.
Por eso necesitamos tu ayuda para garantizar
Podemos seguir brindándote el
hechos que la corriente dominante se niega a aceptar.
El gobierno no nos financia
publicar mentiras y propaganda sobre sus
en nombre de los principales medios de comunicación.
En cambio, dependemos únicamente de su apoyo. Así que
Por favor, apóyanos en nuestros esfuerzos para llevar
tu periodismo honesto, confiable e investigativo
Hoy. Es seguro, rápido y fácil.
Elija su método preferido a continuación para mostrar su apoyo.
Categorías: Noticias de última hora, Noticias del mundo
Al leer este artículo, me viene a la mente que estas herramientas militares de IA pueden ser utilizadas por tiranos para controlar la población de un país sin tener que preocuparse de si los soldados de su país se negarían a luchar contra sus compatriotas. Es mucho más fácil enviar un ejército de robots sin emociones ni ética. Si los globalistas ganan el control mundial, en teoría no habría uso de armas de guerra, pero sí una gran necesidad de controlar a las poblaciones locales. Los drones y los robots serían suficientes. Pero entonces, si los pocos globalistas se salen con la suya, siempre existe la posibilidad de que se produzcan luchas internas para convertirse en el ÚNICO Líder del Mundo. Así que primero hay colaboración para someter a las poblaciones del mundo (lo que queda después de las armas eugenésicas), luego luchas internas para gobernar en solitario. Todo se hace mejor con drones y robots que son más difíciles de corromper, pero también, con suerte, más fáciles de secuestrar.
Hola Pauline, pensaba lo mismo. Pero para complementar tu opinión, no tiene por qué ser el ejército, ya que utilizan empresas comerciales; podría ser cualquier empresa de Silicon Valley o sus homólogos en otros países. Basta con un megalómano psicópata al frente de una o más empresas privadas que colaboran con el ejército y que han adquirido los conocimientos necesarios para construir este tipo de armas. ¿Qué les impide construir en secreto su propio arsenal?
¡La colaboración entre el ejército y las corporaciones privadas me parece una locura! El ejército debería estar preparado para defender a los ciudadanos de las amenazas y no colaborar con quienes podrían representar una amenaza.
De acuerdo. ¿Es un prólogo para que tengan ejércitos privados?
El fantasma de la máquina nos matará a todos. Bueno, a los que queden después de que el culto a la muerte del FEM elimine lo más fácil.
Las decisiones asistidas por IA, incapaces de ser influenciadas por hackers, contramedidas o fallas en el manejo de armas, son una receta para el desastre de todos los seres vivos. Luego, se les prepara con armas biológicas que supuestamente solo incapacitan a los oponentes vivos. ¿Merece la pena financiar esto con fondos públicos?
Putin eliminó la banca central al igual que Napoleón y Hitler.
Notarás que los principales medios de comunicación tienen la misma obsesión con la persona, Putin, y no con el país.
Si los europeos vuelven a ser lo suficientemente tontos como para matarse entre sí porque los banqueros centrales les mienten en la televisión, entonces, sin lugar a dudas, las acciones de defensa defenderán su cartera.
No sé… el mejor material de defensa, si tienes espacio, es comida de larga duración. Quizás algo para derribar drones.
Solo intentan mantener viva la leyenda de ambos bandos. Lograron ganar una y otra vez, financiando a ambos bandos en las guerras.
Pero veo otro patrón que considero más peligroso que sus robots: nuestras mascotas. El DM publicaba artículos casi a diario sobre ataques de perros con desenlace fatal. Sé que eso a veces ocurre, pero o bien ocurre con una frecuencia extraña últimamente, o bien el DM selecciona estas noticias para destacarlas.
Dos opciones, ambas igualmente malas para nosotros y para ellos.