Introducción a la Cumbre de Seguridad de la IA
Actualizado 31 octubre 2023

Introducción a la Cumbre de Seguridad de la IA
1. Cumbre de seguridad de la IA: introducción
Estamos en medio de una revolución tecnológica que alterará fundamentalmente la forma en que vivimos, trabajamos y nos relacionamos unos con otros. La era de la Inteligencia Artificial (IA) ha comenzado y promete transformar aún más casi todos los aspectos de nuestra economÃa y sociedad, trayendo consigo enormes oportunidades, pero también riesgos que podrÃan amenazar la estabilidad global y socavar nuestros valores.
Las oportunidades de transformación son amplias: avanzar en el descubrimiento de fármacos, hacer que el transporte sea más seguro y limpio, mejorar los servicios públicos, acelerar y mejorar el diagnóstico y tratamiento de enfermedades como el cáncer y mucho más. Sin embargo, para aprovechar estas oportunidades, debemos asumir los riesgos, no solo como paÃs sino como un esfuerzo global, razón por la cual estamos organizando la primera Cumbre Global sobre Seguridad de la IA.
La Cumbre de Seguridad de la IA se centrará en cómo gestionar mejor los riesgos de los avances más recientes en IA (“IA de fronteraâ€�, ver más abajo). Estos riesgos requieren una conversación internacional urgente dado el rápido ritmo al que se está desarrollando esta tecnologÃa. La naturaleza dinámica de la IA significa que puede ser difÃcil predecir sus riesgos. Diferentes variables (cómo está diseñada la IA, los usos que se le da, los datos con los que se alimenta) pueden interactuar de maneras que son casi imposibles de predecir. Los gobiernos, académicos, empresas y grupos de la sociedad civil deben trabajar juntos para comprender estos riesgos y sus posibles soluciones.
En el camino hacia la Cumbre, existirán varias oportunidades para que las personas contribuyan a un debate inclusivo. La Cumbre en sà reunirá a un pequeño número de paÃses, sector académico, representantes de la sociedad civil y empresas que ya han reflexionado en esta área para iniciar una conversación global crÃtica. Este es el tema central de la primera Cumbre de Seguridad de la IA organizada por el Reino Unido en Bletchley Park y un diálogo que continuaremos a partir de este evento.
2. Alcance de la Cumbre de Seguridad de la IA: ¿qué es Frontier AI?
La Cumbre se centrará en ciertos tipos de sistemas de IA, en función de los riesgos que puedan plantear. Como se establece a continuación, estos riesgos podrÃan surgir de las capacidades más potencialmente peligrosas de la IA, que entendemos que se encuentran tanto en la “fronteraâ€� de la IA de propósito general como, en algunos casos, de la IA especÃfica y limitada que puede contener capacidades potencialmente peligrosas.
Entendemos que la IA de frontera son modelos de IA de uso general, altamente capaces y que pueden realizar una amplia variedad de tareas e igualar o superar las capacidades presentes en los modelos más avanzados de la actualidad. Estos se basan en una serie de definiciones existentes utilizadas por diversos actores corporativos y de la sociedad civil.
Además de discutir nuestra comprensión de este tema con los asistentes a la Cumbre, el Reino Unido está avanzando en el trabajo para identificar especÃficamente dónde se encuentra actualmente la frontera del desarrollo de la IA y hacia dónde puede avanzar en el futuro.
Las tecnologÃas de IA están evolucionando a una velocidad sin precedentes. Pronto, es posible que se lancen modelos mucho más potentes que los disponibles actualmente. Las capacidades de estos modelos son muy difÃciles de predecir (a veces incluso para quienes los construyen) y, por defecto, podrÃan ponerse a disposición de una amplia gama de actores, incluidos aquellos que podrÃan desearnos hacernos daño. Este ritmo de cambio significa que se necesitan medidas urgentes en materia de seguridad de la IA. Estamos en una encrucijada en la historia de la humanidad y girar en otra dirección serÃa una enorme oportunidad perdida para la humanidad.
Si bien la Cumbre se centrará en la IA de vanguardia, también será importante considerarlos junto con los riesgos de esta tecnologÃa en ciertos casos de uso, es decir, a veces, como sistemas de IA limitados. Esto se debe a que no podemos predecir completamente el desarrollo de la tecnologÃa y no podemos saber con certeza cuán limitados o generales serán los sistemas de IA más riesgosos del futuro, o en qué medida se pueden crear riesgos mediante el uso de IA limitada como herramientas para la IA general.

Alcance de la Cumbre de Inteligencia Artificial
Actualmente, la seguridad de la IA no tiene una definición universalmente aceptada, y es mejor considerarla como la prevención y mitigación de los daños causados por la IA. Estos daños podrÃan ser deliberados o accidentales; dirigidos a individuos, grupos, organizaciones, naciones o globalmente; y de muchos tipos, incluidos, entre otros, daños fÃsicos, psicológicos o económicos.
2.1 Enfoque y objetivos
Como se ilustra en el diagrama anterior, hay un pequeño conjunto de daños potenciales que es más probable que se produzcan en la frontera o, en un pequeño número de casos, a través de sistemas restringidos muy especÃficos. Hay dos categorÃas particulares de riesgo en las que nos centramos:
1. Riesgos por uso indebido, por ejemplo, cuando un mal actor recibe ayuda de nuevas capacidades de IA en ataques biológicos o cibernéticos, desarrollo de tecnologÃas peligrosas o interferencia crÃtica en sistemas. Si no se controla, esto podrÃa causar daños importantes, incluida la pérdida de vidas.
2. Riesgos por pérdida de control que podrÃan surgir de sistemas avanzados, que buscarÃamos estuvieran alineados con nuestros valores e intenciones.
La Cumbre, al analizar especÃficamente la seguridad de la IA en la frontera, se centrará particularmente en estas dos áreas. Esto obedece a la necesidad urgente de una conversación internacional sobre cómo podemos trabajar juntos para enfrentar los nuevos desafÃos que plantean estos riesgos, combatir el uso indebido de modelos por parte de actores no estatales y promover las mejores prácticas. Este enfoque se basa en el trabajo que aborda otros riesgos y daños de la IA, incluso en la OCDE, la Asociación Global sobre IA y el Consejo de Europa, y el Proceso de Hiroshima sobre IA.
Lo anterior no pretende minimizar los riesgos sociales más amplios que dicha IA (tanto en la frontera como fuera de ella) puede tener, incluida la desinformación, el sesgo, la discriminación y el potencial de automatización masiva. El Reino Unido considera que la mejor manera de abordar estos problemas es mediante los procesos internacionales existentes que están en marcha, asà como los respectivos procesos internos de las naciones. Por ejemplo, en el Reino Unido estos riesgos se están considerando a través del trabajo anunciado en el white paper sobre la regulación de la IA y a través de un trabajo más amplio en todo el gobierno. Por lo tanto, es importante que el enfoque de la Cumbre sea complementario y no duplicativo de estos esfuerzos existentes, y que el Reino Unido y otras naciones continúen trabajando a buen ritmo en todos estos foros para abordar toda la gama de riesgos.
Por lo tanto, acogemos con satisfacción el trabajo realizado por nuestros socios internacionales para identificar medidas voluntarias apropiadas que puedan implementarse en ritmo y de forma provisional, mientras nuestra comprensión de la tecnologÃa continúa evolucionando.
La primera Cumbre de Seguridad de la IA tiene cinco objetivos:
-
una comprensión compartida de los riesgos que plantea la IA de frontera y la necesidad de actuar
-
un proceso de avance para la colaboración internacional en materia de seguridad de la IA en la frontera, incluida la mejor manera de apoyar los marcos nacionales e internacionales
-
medidas apropiadas que las organizaciones individuales deberÃan tomar para aumentar la seguridad de la IA en la frontera
-
áreas de posible colaboración en la investigación de la seguridad de la IA, incluida la evaluación de las capacidades del modelo y el desarrollo de nuevos estándares para respaldar la gobernanza
-
demostrar cómo garantizar el desarrollo seguro de la IA permitirá que la IA se utilice para el bien a nivel mundial
3. Camino hacia la Cumbre � Compromiso
La Cumbre es solo el comienzo de un proceso global para identificar, evaluar y, en última instancia, mitigar los riesgos de la IA de vanguardia para que todas las personas podamos disfrutar de los beneficios públicos que la IA puede aportar.
Michelle Donelan, Secretaria de Estado de Ciencia, Innovación y TecnologÃa del gobierno británico, anunció el inicio del compromiso formal antes de la Cumbre a principios de septiembre con Jonathan Black y Matt Clifford, Representantes del Primer Ministro para la Cumbre de Seguridad de la IA, iniciando conversaciones con los paÃses y un número de organizaciones lÃderes en IA de vanguardia. La Secretaria de Estado también organizó una mesa redonda con una muestra representativa de grupos de la sociedad civil y continúa manteniendo compromisos bilaterales para informar el compromiso y el programa de la Cumbre.
En las próximas semanas, el Gobierno seguirá colaborando con la comunidad cientÃfica nacional e internacional, la sociedad civil y las empresas para escucharles sobre el contenido de la Cumbre y sobre cuestiones más amplias relacionadas con la IA.
3.1 Ampliando la conversación
Para asegurar que la Cumbre pueda alcanzar los objetivos establecidos, es necesario garantizar un debate pequeño y centrado durante el evento de dos dÃas, limitado a 100 participantes. Sin embargo, apreciamos la opinión de muchas más personas y organizaciones que tienen la experiencia y el deseo de contribuir a este tema crÃtico. El alcance de la Cumbre se centra en los riesgos de seguridad de la IA de vanguardia, pero nuestro compromiso más amplio garantizará que también se discutan otras cuestiones importantes.
Para permitir que se escuche una gama más amplia de voces, nos estamos asociando en cuatro eventos preliminares oficiales con la Royal Society, British Academy, techUK y The Alan Turing Institute. Los resultados de estos talleres se incorporarán directamente a la planificación de la Cumbre y publicaremos un resumen externo del compromiso.
Fecha | Ponente | Objetivo |
---|---|---|
11 octubre | The Alan Turing Institute | Analizar las fortalezas existentes del Reino Unido en materia de seguridad de la IA y las oportunidades de colaboración internacional. |
12 octubre | British Academy | Discutir las posibilidades de la IA para el bien público: la Cumbre y más allá. |
17 octubre | techUK | Analizar las oportunidades de la IA; Riesgos potenciales de la IA; Soluciones que existen en el sector tecnológico. |
25 octubre | Royal Society | Explorar los riesgos de seguridad de la IA en todas las disciplinas cientÃficas. |
4. Compromiso público
La seguridad de la AI de frontera es un tema que nos afecta a todas las personas y no es simplemente una cuestión de personas expertas en academia y técnica. En el mes previo a la Cumbre, público de cualquier parte del mundo podrá hacer preguntas y compartir sus puntos de vista directamente con el gobierno británico.
Los detalles del evento se compartirán con anticipación en los canales de redes sociales del Departamento de Ciencia, Innovación y TecnologÃa (DSIT), con la posibilidad de verlo y publicar preguntas y comentarios en los canales de redes sociales en otros momentos.
Fecha | Evento |
---|---|
2 octubre | X Q&A con Matt Clifford, representante del Primer Ministro para la Cumbre de Seguridad de la IA |
16 octubre |
Q&A en LinkedIn con la Secretaria de Estado Michelle Donelan |
1 noviembre | Discursos de apertura en la transmisión en vivo de la Cumbre |
Revisa el programa completo de la Cumbre de Seguridad de IA en esta página en inglés.
A través de @scitechgovuk en X, LinkedIn, Facebook, Instagram y Threads se compartirán más actualizaciones sobre la Cumbre y oportunidades para participar en el perÃodo previo a la Cumbre y durante toda ella:
*Las redes sociales mencionadas publican en inglés.
5. Glosario
°Õé°ù³¾¾±²Ô´Ç | ¶Ù±ð´Ú¾±²Ô¾±³¦¾±Ã³²Ô |
---|---|
IA, sistemas de IA o tecnologÃas de IA | Productos y servicios que son “adaptablesâ€� y “autónomosâ€�, en el sentido que se define en la sección 3.2.1 del documento en inglés AI White Paper. |
Modelos Básicosl | Los modelos básicos son modelos entrenados con datos amplios a escala, de modo que puedan adaptarse a una amplia gama de tareas posteriores. - documento en inglés . |
IA de frontera | La IA de frontera está a la vanguardia del avance tecnológico y, por lo tanto, ofrece la mayor cantidad de oportunidades, pero también presenta nuevos riesgos. Se refiere a modelos de IA de uso general altamente capaces, generalmente modelos básicos, que pueden realizar una amplia variedad de tareas e igualar o superar las capacidades presentes en los modelos más avanzados de la actualidad. Posteriormente, puede habilitar casos de uso limitados. |
IA estrecha | La inteligencia artificial estrecha (IA estrecha) es una IA diseñada para realizar una tarea especÃfica. Es un tipo especÃfico de inteligencia artificial en el que un algoritmo de aprendizaje está diseñado para realizar una sola tarea o un conjunto reducido de tareas, y cualquier conocimiento adquirido al realizar la tarea no será automáticamente aplicable ni transferible a una amplia variedad de tareas. |
Automatización masiva | La automatización masiva es el proceso que lleva al software a completar tareas de una manera más rápida, eficiente y económica que la que pueden realizar los humanos. |