Este artículo originalmente apareció en el Substack de Leo Hohmann y fue republicado con permiso. El antiguo ingeniero de Google Geoffrey Hinton advierte de ‘cosas muy desagradables’ ahora que la Inteligencia Artificial está siendo utilizada para tomar decisiones en el campo de batalla.
El mundo podría experimentar múltiples desastres antes de que el uso de armas de Inteligencia Artificial esté debidamente regulado, según el científico galardonado y pionero tecnológico Geoffrey Hinton, conocido en círculos tecnológicos como el Padrino de la IA.
Hinton dice que la IA está volviéndose mucho más inteligente que las personas y pronto podría tomar el control en el campo de batalla. Con guerras estallando en todo el mundo, en Ucrania, Medio Oriente y potencialmente en el Lejano Oriente, esto es una gran preocupación para la humanidad.
Ya se ha especulado que la reciente muerte de trabajadores humanitarios en Israel podría haber resultado de una decisión militar impulsada por IA que no se habría tomado si las personas tuvieran control total de la estrategia en el campo de batalla.
RT.com informa que Hinton, el ex ingeniero de Google que abandonó la empresa el año pasado, comparó el uso de IA para fines militares con el despliegue de armas químicas, advirtiendo que «cosas muy desagradables» ocurrirán antes de que la comunidad global llegue a un acuerdo comprensivo comparable a los Convenios de Ginebra.
«La amenaza de la que hablé es la amenaza existencial», dijo Hinton a la emisora irlandesa RTE News el martes, enfatizando que «estas cosas se volverán mucho más inteligentes que nosotros y tomarán el control».
El científico de la computación destacó el impacto de la IA en la desinformación y la pérdida de empleos, y también en las armas del futuro.
«Una de las amenazas son los ‘robots de batalla’ que harán que sea mucho más fácil para los países ricos librar guerras contra países más pequeños y más pobres, y serán muy desagradables y creo que inevitablemente llegarán», advirtió Hinton.
Instó a los gobiernos a presionar a las principales empresas tecnológicas, especialmente en California, para llevar a cabo investigaciones exhaustivas sobre la seguridad de la tecnología de IA.
«Hay que incentivar a las empresas para que pongan mucho trabajo en la seguridad en lugar de que sea una idea posterior, y parte de esto está sucediendo ahora», dijo Hinton.
Destacó los enormes beneficios que la IA puede aportar a la humanidad, especialmente en el campo de la salud, agregando que no se arrepiente de ninguna de sus contribuciones a la tecnología.
Por supuesto, uno de los «beneficios» de la IA en la salud es su capacidad para desarrollar rápidamente «vacunas» modificando genéticamente, utilizando ARN mensajero sintético, por lo que incluso este llamado beneficio al que se refiere Hinton es un fraude.
RT señala que a pesar del creciente interés en la IA, varios personajes de alto perfil en la industria tecnológica han advertido sobre los peligros potenciales del uso no regulado de la tecnología. Hinton ha liderado una campaña mediática para advertir de los riesgos. El CEO de Tesla, Elon Musk, el cofundador de Apple, Steve Wozniak, y Yoshua Bengio, considerado pionero en IA por su trabajo en redes neuronales, se encuentran entre las principales figuras de la industria que firmaron una carta el año pasado pidiendo una regulación agresiva del sector de la IA.
Un documento fue publicado por el U.S. Army War College en 2020 que indica que la investigación militar actual respalda la aparición y sincronización de la IA y la robótica.
Así que los creadores de la IA ahora están advirtiendo sobre sus riesgos. Qué ironía. Crean la bestia, luego asustan al público para creer que esta bestia podría tomar el control del mundo, preparando el escenario para que los creadores de la bestia ofrezcan una solución aún más aterradora: la regulación total de toda la información y todo el comportamiento humano. Clásico hegelianismo.
Para recibir nuevas publicaciones y apoyar el trabajo de Leo Hohmann, considere convertirse en un suscriptor si aún no lo ha hecho en leohohmann.substack.com.