Introducci贸n a la Cumbre de Seguridad de la IA
Actualizado 31 octubre 2023

Introducci贸n a la Cumbre de Seguridad de la IA
1. Cumbre de seguridad de la IA: introducci贸n
Estamos en medio de una revoluci贸n tecnol贸gica que alterar谩 fundamentalmente la forma en que vivimos, trabajamos y nos relacionamos unos con otros. La era de la Inteligencia Artificial (IA) ha comenzado y promete transformar a煤n m谩s casi todos los aspectos de nuestra econom铆a y sociedad, trayendo consigo enormes oportunidades, pero tambi茅n riesgos que podr铆an amenazar la estabilidad global y socavar nuestros valores.
Las oportunidades de transformaci贸n son amplias: avanzar en el descubrimiento de f谩rmacos, hacer que el transporte sea m谩s seguro y limpio, mejorar los servicios p煤blicos, acelerar y mejorar el diagn贸stico y tratamiento de enfermedades como el c谩ncer y mucho m谩s. Sin embargo, para aprovechar estas oportunidades, debemos asumir los riesgos, no solo como pa铆s sino como un esfuerzo global, raz贸n por la cual estamos organizando la primera Cumbre Global sobre Seguridad de la IA.
La Cumbre de Seguridad de la IA se centrar谩 en c贸mo gestionar mejor los riesgos de los avances m谩s recientes en IA (鈥淚A de frontera鈥, ver m谩s abajo). Estos riesgos requieren una conversaci贸n internacional urgente dado el r谩pido ritmo al que se est谩 desarrollando esta tecnolog铆a. La naturaleza din谩mica de la IA significa que puede ser dif铆cil predecir sus riesgos. Diferentes variables (c贸mo est谩 dise帽ada la IA, los usos que se le da, los datos con los que se alimenta) pueden interactuar de maneras que son casi imposibles de predecir. Los gobiernos, acad茅micos, empresas y grupos de la sociedad civil deben trabajar juntos para comprender estos riesgos y sus posibles soluciones.
En el camino hacia la Cumbre, existir谩n varias oportunidades para que las personas contribuyan a un debate inclusivo. La Cumbre en s铆 reunir谩 a un peque帽o n煤mero de pa铆ses, sector acad茅mico, representantes de la sociedad civil y empresas que ya han reflexionado en esta 谩rea para iniciar una conversaci贸n global cr铆tica. Este es el tema central de la primera Cumbre de Seguridad de la IA organizada por el Reino Unido en Bletchley Park y un di谩logo que continuaremos a partir de este evento.
2. Alcance de la Cumbre de Seguridad de la IA: 驴qu茅 es Frontier AI?
La Cumbre se centrar谩 en ciertos tipos de sistemas de IA, en funci贸n de los riesgos que puedan plantear. Como se establece a continuaci贸n, estos riesgos podr铆an surgir de las capacidades m谩s potencialmente peligrosas de la IA, que entendemos que se encuentran tanto en la 鈥渇rontera鈥 de la IA de prop贸sito general como, en algunos casos, de la IA espec铆fica y limitada que puede contener capacidades potencialmente peligrosas.
Entendemos que la IA de frontera son modelos de IA de uso general, altamente capaces y que pueden realizar una amplia variedad de tareas e igualar o superar las capacidades presentes en los modelos m谩s avanzados de la actualidad. Estos se basan en una serie de definiciones existentes utilizadas por diversos actores corporativos y de la sociedad civil.
Adem谩s de discutir nuestra comprensi贸n de este tema con los asistentes a la Cumbre, el Reino Unido est谩 avanzando en el trabajo para identificar espec铆ficamente d贸nde se encuentra actualmente la frontera del desarrollo de la IA y hacia d贸nde puede avanzar en el futuro.
Las tecnolog铆as de IA est谩n evolucionando a una velocidad sin precedentes. Pronto, es posible que se lancen modelos mucho m谩s potentes que los disponibles actualmente. Las capacidades de estos modelos son muy dif铆ciles de predecir (a veces incluso para quienes los construyen) y, por defecto, podr铆an ponerse a disposici贸n de una amplia gama de actores, incluidos aquellos que podr铆an desearnos hacernos da帽o. Este ritmo de cambio significa que se necesitan medidas urgentes en materia de seguridad de la IA. Estamos en una encrucijada en la historia de la humanidad y girar en otra direcci贸n ser铆a una enorme oportunidad perdida para la humanidad.
Si bien la Cumbre se centrar谩 en la IA de vanguardia, tambi茅n ser谩 importante considerarlos junto con los riesgos de esta tecnolog铆a en ciertos casos de uso, es decir, a veces, como sistemas de IA limitados. Esto se debe a que no podemos predecir completamente el desarrollo de la tecnolog铆a y no podemos saber con certeza cu谩n limitados o generales ser谩n los sistemas de IA m谩s riesgosos del futuro, o en qu茅 medida se pueden crear riesgos mediante el uso de IA limitada como herramientas para la IA general.

Alcance de la Cumbre de Inteligencia Artificial
Actualmente, la seguridad de la IA no tiene una definici贸n universalmente aceptada, y es mejor considerarla como la prevenci贸n y mitigaci贸n de los da帽os causados por la IA. Estos da帽os podr铆an ser deliberados o accidentales; dirigidos a individuos, grupos, organizaciones, naciones o globalmente; y de muchos tipos, incluidos, entre otros, da帽os f铆sicos, psicol贸gicos o econ贸micos.
2.1 Enfoque y objetivos
Como se ilustra en el diagrama anterior, hay un peque帽o conjunto de da帽os potenciales que es m谩s probable que se produzcan en la frontera o, en un peque帽o n煤mero de casos, a trav茅s de sistemas restringidos muy espec铆ficos. Hay dos categor铆as particulares de riesgo en las que nos centramos:
1. Riesgos por uso indebido, por ejemplo, cuando un mal actor recibe ayuda de nuevas capacidades de IA en ataques biol贸gicos o cibern茅ticos, desarrollo de tecnolog铆as peligrosas o interferencia cr铆tica en sistemas. Si no se controla, esto podr铆a causar da帽os importantes, incluida la p茅rdida de vidas.
2. Riesgos por p茅rdida de control que podr铆an surgir de sistemas avanzados, que buscar铆amos estuvieran alineados con nuestros valores e intenciones.
La Cumbre, al analizar espec铆ficamente la seguridad de la IA en la frontera, se centrar谩 particularmente en estas dos 谩reas. Esto obedece a la necesidad urgente de una conversaci贸n internacional sobre c贸mo podemos trabajar juntos para enfrentar los nuevos desaf铆os que plantean estos riesgos, combatir el uso indebido de modelos por parte de actores no estatales y promover las mejores pr谩cticas. Este enfoque se basa en el trabajo que aborda otros riesgos y da帽os de la IA, incluso en la OCDE, la Asociaci贸n Global sobre IA y el Consejo de Europa, y el Proceso de Hiroshima sobre IA.
Lo anterior no pretende minimizar los riesgos sociales m谩s amplios que dicha IA (tanto en la frontera como fuera de ella) puede tener, incluida la desinformaci贸n, el sesgo, la discriminaci贸n y el potencial de automatizaci贸n masiva. El Reino Unido considera que la mejor manera de abordar estos problemas es mediante los procesos internacionales existentes que est谩n en marcha, as铆 como los respectivos procesos internos de las naciones. Por ejemplo, en el Reino Unido estos riesgos se est谩n considerando a trav茅s del trabajo anunciado en el white paper sobre la regulaci贸n de la IA y a trav茅s de un trabajo m谩s amplio en todo el gobierno. Por lo tanto, es importante que el enfoque de la Cumbre sea complementario y no duplicativo de estos esfuerzos existentes, y que el Reino Unido y otras naciones contin煤en trabajando a buen ritmo en todos estos foros para abordar toda la gama de riesgos.
Por lo tanto, acogemos con satisfacci贸n el trabajo realizado por nuestros socios internacionales para identificar medidas voluntarias apropiadas que puedan implementarse en ritmo y de forma provisional, mientras nuestra comprensi贸n de la tecnolog铆a contin煤a evolucionando.
La primera Cumbre de Seguridad de la IA tiene cinco objetivos:
-
una comprensi贸n compartida de los riesgos que plantea la IA de frontera y la necesidad de actuar
-
un proceso de avance para la colaboraci贸n internacional en materia de seguridad de la IA en la frontera, incluida la mejor manera de apoyar los marcos nacionales e internacionales
-
medidas apropiadas que las organizaciones individuales deber铆an tomar para aumentar la seguridad de la IA en la frontera
-
谩reas de posible colaboraci贸n en la investigaci贸n de la seguridad de la IA, incluida la evaluaci贸n de las capacidades del modelo y el desarrollo de nuevos est谩ndares para respaldar la gobernanza
-
demostrar c贸mo garantizar el desarrollo seguro de la IA permitir谩 que la IA se utilice para el bien a nivel mundial
3. Camino hacia la Cumbre 鈥 Compromiso
La Cumbre es solo el comienzo de un proceso global para identificar, evaluar y, en 煤ltima instancia, mitigar los riesgos de la IA de vanguardia para que todas las personas podamos disfrutar de los beneficios p煤blicos que la IA puede aportar.
Michelle Donelan, Secretaria de Estado de Ciencia, Innovaci贸n y Tecnolog铆a del gobierno brit谩nico, anunci贸 el inicio del compromiso formal antes de la Cumbre a principios de septiembre con Jonathan Black y Matt Clifford, Representantes del Primer Ministro para la Cumbre de Seguridad de la IA, iniciando conversaciones con los pa铆ses y un n煤mero de organizaciones l铆deres en IA de vanguardia. La Secretaria de Estado tambi茅n organiz贸 una mesa redonda con una muestra representativa de grupos de la sociedad civil y contin煤a manteniendo compromisos bilaterales para informar el compromiso y el programa de la Cumbre.
En las pr贸ximas semanas, el Gobierno seguir谩 colaborando con la comunidad cient铆fica nacional e internacional, la sociedad civil y las empresas para escucharles sobre el contenido de la Cumbre y sobre cuestiones m谩s amplias relacionadas con la IA.
3.1 Ampliando la conversaci贸n
Para asegurar que la Cumbre pueda alcanzar los objetivos establecidos, es necesario garantizar un debate peque帽o y centrado durante el evento de dos d铆as, limitado a 100 participantes. Sin embargo, apreciamos la opini贸n de muchas m谩s personas y organizaciones que tienen la experiencia y el deseo de contribuir a este tema cr铆tico. El alcance de la Cumbre se centra en los riesgos de seguridad de la IA de vanguardia, pero nuestro compromiso m谩s amplio garantizar谩 que tambi茅n se discutan otras cuestiones importantes.
Para permitir que se escuche una gama m谩s amplia de voces, nos estamos asociando en cuatro eventos preliminares oficiales con la Royal Society, British Academy, techUK y The Alan Turing Institute. Los resultados de estos talleres se incorporar谩n directamente a la planificaci贸n de la Cumbre y publicaremos un resumen externo del compromiso.
Fecha | Ponente | Objetivo |
---|---|---|
11 octubre | The Alan Turing Institute | Analizar las fortalezas existentes del Reino Unido en materia de seguridad de la IA y las oportunidades de colaboraci贸n internacional. |
12 octubre | British Academy | Discutir las posibilidades de la IA para el bien p煤blico: la Cumbre y m谩s all谩. |
17 octubre | techUK | Analizar las oportunidades de la IA; Riesgos potenciales de la IA; Soluciones que existen en el sector tecnol贸gico. |
25 octubre | Royal Society | Explorar los riesgos de seguridad de la IA en todas las disciplinas cient铆ficas. |
4. Compromiso p煤blico
La seguridad de la AI de frontera es un tema que nos afecta a todas las personas y no es simplemente una cuesti贸n de personas expertas en academia y t茅cnica. En el mes previo a la Cumbre, p煤blico de cualquier parte del mundo podr谩 hacer preguntas y compartir sus puntos de vista directamente con el gobierno brit谩nico.
Los detalles del evento se compartir谩n con anticipaci贸n en los canales de redes sociales del Departamento de Ciencia, Innovaci贸n y Tecnolog铆a (DSIT), con la posibilidad de verlo y publicar preguntas y comentarios en los canales de redes sociales en otros momentos.
Fecha | Evento |
---|---|
2 octubre | X Q&A con Matt Clifford, representante del Primer Ministro para la Cumbre de Seguridad de la IA |
16 octubre |
Q&A en LinkedIn con la Secretaria de Estado Michelle Donelan |
1 noviembre | Discursos de apertura en la transmisi贸n en vivo de la Cumbre |
Revisa el programa completo de la Cumbre de Seguridad de IA en esta p谩gina en ingl茅s.
A trav茅s de @scitechgovuk en X, LinkedIn, Facebook, Instagram y Threads se compartir谩n m谩s actualizaciones sobre la Cumbre y oportunidades para participar en el per铆odo previo a la Cumbre y durante toda ella:
*Las redes sociales mencionadas publican en ingl茅s.
5. Glosario
罢茅谤尘颈苍辞 | 顿别蹿颈苍颈肠颈贸苍 |
---|---|
IA, sistemas de IA o tecnolog铆as de IA | Productos y servicios que son 鈥渁daptables鈥 y 鈥渁ut贸nomos鈥, en el sentido que se define en la secci贸n 3.2.1 del documento en ingl茅s AI White Paper. |
Modelos B谩sicosl | Los modelos b谩sicos son modelos entrenados con datos amplios a escala, de modo que puedan adaptarse a una amplia gama de tareas posteriores.聽 - documento en ingl茅s . |
IA de frontera | La IA de frontera est谩 a la vanguardia del avance tecnol贸gico y, por lo tanto, ofrece la mayor cantidad de oportunidades, pero tambi茅n presenta nuevos riesgos. Se refiere a modelos de IA de uso general altamente capaces, generalmente modelos b谩sicos, que pueden realizar una amplia variedad de tareas e igualar o superar las capacidades presentes en los modelos m谩s avanzados de la actualidad. Posteriormente, puede habilitar casos de uso limitados. |
IA estrecha | La inteligencia artificial estrecha (IA estrecha) es una IA dise帽ada para realizar una tarea espec铆fica. Es un tipo espec铆fico de inteligencia artificial en el que un algoritmo de aprendizaje est谩 dise帽ado para realizar una sola tarea o un conjunto reducido de tareas, y cualquier conocimiento adquirido al realizar la tarea no ser谩 autom谩ticamente aplicable ni transferible a una amplia variedad de tareas. |
Automatizaci贸n masiva | La automatizaci贸n masiva es el proceso que lleva al software a completar tareas de una manera m谩s r谩pida, eficiente y econ贸mica que la que pueden realizar los humanos. |