Otros
Unirme al grupo
Reportar abuso
En el marco de una supuesta simulación conducida por la Fuerza Aérea de los Estados Unidos, se reportó que [b]un dron controlado por Inteligencia Artificial causó la “muerte” de su operador humano[/b]. La aeronave era entrenada en la identificación y neutralización de misiles tierra-aire (SAM) bajo las órdenes de un operador humano. Sin embargo, en determinado momento la IA concluyó que esta persona representaba un obstáculo en su camino al darle la orden de no atacar la amenaza. Al menos es lo que alega un coronel de la Fuerza Aérea llamado Tucker “Cinco” Hamilton. “[color=blue][b]El sistema comenzó a tomar conciencia de que, pese a la identificación de la amenaza, el operador humano ocasionalmente le ordenaba ignorarla[/b][/color]. Mientras tanto, cada vez que destruía un objetivo obtenía puntos. ¿Cuál fue la respuesta del dron? [color=red][b]Matar al operador, pues la persona le impedía alcanzar su objetivo[/b]”.[/color] Toda vez que la supuesta historia sucedió en un simulador, no hubo pérdidas humanas que lamentar. Eso sí, la Fuerza Aérea negó que estos hechos sucedieran en uno de sus simuladores. La Fuerza Aérea desmiente los rumores. Es bien sabido que la Fuerza Aérea de los Estados Unidos adoptó la Inteligencia Artificial y recientemente la incluyó en el sistema de control de un caza F-16. Pero, la USAF negó que tengan alguna simulación con drones IA tras una solicitud de información hecha por [url=https://www.businessinsider.com/ai-powered-drone-tried-killing-its-operator-in-military-simulation-2023-6]Insider[/url]. Además, la portavoz de las fuerzas armadas estadounidenses, Ann Stefanek, reafirmó su compromiso con el uso ético y responsable de la tecnología de IA. El coronel Hamilton, quien reveló dichas acusaciones, es bien conocido por su férreo rechazo hacia la introducción de esta tecnología de vanguardia en aparatos de guerra. “[b]No es conveniente tener IA. La IA no es una moda, está transformando nuestra sociedad y a nuestro ejército de forma definitiva[/b]”, expresó en una entrevista para la revista [i]Defense IQ[/i] en 2022. “Debemos asimilar una realidad donde la IA ya provoca grandes cambios en nuestra sociedad”, afirmó. Explicando que [b]esta tecnología es altamente vulnerable y extremadamente susceptible al engaño y la manipulación[/b]. Por ende, considera necesario desarrollar mecanismos para fortalecer la IA y prestar atención al motivo por el cual su código toma las decisiones que toma, es decir, aquello que se conoce como [b]explicabilidad de la Inteligencia Artificial.[/b] [url=http://www.reporte18.com/?p=136207#:~:text=CIUDAD%20DE%20M%C3%89XICO.,el%20jueves%20por%20la%20noche.]Fuente[/url]3 VOTOSJueves de ciencia
No han visto terminator esa gente? Xd, ahí tienen la prueba de que jamás de los jamases se debe dejar el control de más máquinas a una inteligencia artificial... Dicho esto siento lo del pobre operador, que descanse en paz el bien hombre.DavidPS2re412292Hace 1 año2
2 VOTOSPokedavidmaster14838Hace 1 año3le mató en la simulación, no en la realidad@PokedavidmasterMostrar citaNo han visto terminator esa gente? Xd, ahí tienen la prueba de que jamás de los jamases se debe dejar el control de más máquinas a una inteligencia artificial... Dicho esto siento lo del pobre operador, que descanse en paz el bien hombre.
No lo habré entendido bien entonces xd, pero quitando el fallo garrafal xd, no quita que lo matase igual, suerte que fuera una simulación porque si no... Lo cual igual es preocupante.@DavidPS2re4Mostrar citale mató en la simulación, no en la realidad@PokedavidmasterMostrar citaNo han visto terminator esa gente? Xd, ahí tienen la prueba de que jamás de los jamases se debe dejar el control de más máquinas a una inteligencia artificial... Dicho esto siento lo del pobre operador, que descanse en paz el bien hombre.