El riesgo de extinción por Inteligencia Artificial debe ser una prioridad global
Un grupo de destacados expertos en tecnología de todo el mundo advirtió que la tecnología de inteligencia artificial debe considerarse un riesgo social como fue el Coronavirus.
Un grupo de destacados expertos en tecnología de todo el mundo advirtió que la tecnología de inteligencia artificial debe considerarse un riesgo social y priorizarse en la misma clase que las pandemias y las guerras nucleares.
La breve declaración, firmada por cientos de ejecutivos tecnológicos y académicos, fue emitida por el Centro para la Seguridad de la IA el martes en medio de crecientes preocupaciones sobre la regulación y los riesgos que la tecnología representa para la humanidad.
“Mitigar el riesgo de extinción de la IA debería ser una prioridad global junto con otros riesgos a escala social como las pandemias y la guerra nuclear”, dijo el comunicado. Entre los signatarios se encontraban los directores ejecutivos de DeepMind de Google, el desarrollador de ChatGPT OpenAI y la startup de inteligencia artificial Anthropic.
La declaración se produce cuando los líderes mundiales y los expertos de la industria, como los líderes de OpenAI, han pedido la regulación de la tecnología en medio de temores existenciales de que la tecnología podría afectar significativamente los mercados laborales, dañar la salud de millones y convertir en armas la desinformación, la discriminación y la suplantación de identidad.
A principios de este mes, el hombre a menudo promocionado como el padrino de la IA, Geoffrey Hinton, también signatario, renunció a Google citando su "riesgo existencial" . El número 10 se hizo eco y reconoció el riesgo la semana pasada por primera vez : un cambio rápido de rumbo dentro del gobierno que se produjo dos meses después de la publicación de un libro blanco de IA que las cifras de la industria advirtieron que ya está desactualizado.
Si bien la carta publicada el martes no es la primera, es potencialmente la más impactante dada su gama más amplia de signatarios y su principal preocupación existencial, según Michael Osborne, profesor de aprendizaje automático en la Universidad de Oxford y cofundador de Mind Foundry. .
“Realmente es notable que tanta gente haya suscrito esta carta”, dijo. “Eso demuestra que hay una creciente comprensión entre los que trabajamos en IA de que los riesgos existenciales son una preocupación real”.
El potencial de IA para exacerbar los riesgos existenciales existentes, como las pandemias diseñadas y las carreras armamentistas militares, son preocupaciones que llevaron a Osborne a firmar la carta pública, junto con las nuevas amenazas existenciales de IA.
Los llamados para frenar las amenazas se producen después del éxito de ChatGPT tras su lanzamiento en noviembre del año pasado. El modelo de lenguaje ya ha sido ampliamente adoptado por millones de personas y ha avanzado rápidamente más allá de las predicciones de los mejor informados de la industria, dijo Osborne.
“Debido a que no entendemos muy bien la IA, existe la posibilidad de que pueda desempeñar un papel como una especie de nuevo organismo competidor en el planeta, por lo que una especie de especie invasora que hemos diseñado que podría desempeñar un papel devastador en nuestro supervivencia como especie”, dijo.