Declaraci贸n de Bletchley de los pa铆ses que asisten a la Cumbre de seguridad de la IA, 1 y 2 de noviembre de 2023
Actualizado 13 febrero 2025
La Inteligencia Artificial (IA) presenta enormes oportunidades globales: tiene el potencial de transformar y mejorar el bienestar humano, la paz y la prosperidad. Para lograr esto, afirmamos que, por el bien de todas las personas, la IA debe dise帽arse, desarrollarse, implementarse y utilizarse de manera segura, centrada en el ser humano, confiable y responsable. Acogemos con benepl谩cito los esfuerzos de la comunidad internacional hasta ahora para cooperar en materia de IA para promover el crecimiento econ贸mico inclusivo, el desarrollo sostenible y la innovaci贸n, proteger los derechos humanos y las libertades fundamentales y fomentar la confianza p煤blica en los sistemas de IA para realizar plenamente su potencial.
Los sistemas de IA ya est谩n implementados en muchos 谩mbitos de la vida diaria, incluidos la vivienda, el empleo, el transporte, la educaci贸n, la salud, la accesibilidad y la justicia, y es probable que su uso aumente. Reconocemos que este es, por lo tanto, un momento 煤nico para actuar y afirmar la necesidad de que el desarrollo seguro de la IA y de que las oportunidades transformadoras de la IA se utilicen para bien y para todos, de manera inclusiva en nuestros pa铆ses y a nivel mundial. Esto incluye servicios p煤blicos como salud y educaci贸n, seguridad alimentaria, ciencia, energ铆a limpia, biodiversidad y clima, para hacer realidad el disfrute de los derechos humanos y fortalecer los esfuerzos para lograr los Objetivos de Desarrollo Sostenible de las Naciones Unidas.
Adem谩s de estas oportunidades, la IA tambi茅n plantea riesgos importantes, incluso en esos 谩mbitos de la vida diaria. Con ese fin, acogemos con satisfacci贸n los esfuerzos internacionales pertinentes para examinar y abordar el impacto potencial de los sistemas de IA en los foros existentes y otras iniciativas relevantes, y el reconocimiento de que la protecci贸n de los derechos humanos, transparencia y explicabilidad, equidad, rendici贸n de cuentas, regulaci贸n, seguridad, adecuada supervisi贸n humana, aspectos 茅ticos, mitigaci贸n de prejuicios, privacidad y protecci贸n de datos. Tambi茅n observamos el potencial de riesgos imprevistos derivados de la capacidad de manipular contenido o generar contenido enga帽oso. Todas estas cuestiones son de importancia cr铆tica y afirmamos la necesidad y urgencia de abordarlas.
Riesgos de seguridad particulares surgen en la 鈥渇rontera鈥� de la IA, entendida como aquellos modelos de IA de prop贸sito general altamente capaces, incluidos los modelos b谩sicos, que podr铆an realizar una amplia variedad de tareas, as铆 como IA espec铆ficas y relevantes que podr铆an exhibir capacidades que causen da帽o, que igualan o superan las capacidades presentes en los modelos m谩s avanzados de hoy. Pueden emerger riesgos sustanciales debido a un posible uso indebido intencional o problemas de control no deseados relacionados con la alineaci贸n con la intenci贸n humana.
Estos problemas se deben en parte a que esas capacidades no se comprenden completamente y, por lo tanto, son dif铆ciles de predecir. Nos preocupan especialmente estos riesgos en 谩mbitos como la ciberseguridad y la biotecnolog铆a, as铆 como donde los sistemas de inteligencia artificial de vanguardia pueden amplificar riesgos como la desinformaci贸n. Existe la posibilidad de que se produzcan da帽os graves, incluso catastr贸ficos, ya sean deliberados o no, derivados de las capacidades m谩s importantes de estos modelos de IA. Dado el r谩pido e incierto ritmo de cambio de la IA, y en el contexto de la aceleraci贸n de la inversi贸n en tecnolog铆a, afirmamos que es especialmente urgente profundizar nuestra comprensi贸n de estos riesgos potenciales y de las acciones para abordarlos.
Muchos riesgos que surgen de la IA son de naturaleza intr铆nsecamente internacional y, por lo tanto, la mejor manera de abordarlos es mediante la cooperaci贸n internacional. Resolvemos trabajar juntos de manera inclusiva para garantizar una IA centrada en las personas, confiable y responsable que sea segura y apoye el bien de todas y todos a trav茅s de los foros internacionales existentes y otras iniciativas relevantes, para promover la cooperaci贸n para abordar la amplia gama de riesgos que plantean AI. Al hacerlo, reconocemos que los pa铆ses deben considerar la importancia de un enfoque regulatorio y de gobernanza proporcionado y pro-innovaci贸n que maximice los beneficios y tenga en cuenta los riesgos asociados con la IA. Esto podr铆a incluir realizar, cuando corresponda, clasificaciones y categorizaciones de riesgo basadas en las circunstancias nacionales y los marcos legales aplicables. Tambi茅n observamos la importancia de la cooperaci贸n, cuando proceda, en enfoques como principios y c贸digos de conducta comunes. Con respecto a los riesgos espec铆ficos que probablemente se encuentren en relaci贸n con la IA de frontera, decidimos intensificar y mantener nuestra cooperaci贸n, y ampliarla con m谩s pa铆ses, para identificar, comprender y, seg煤n corresponda, actuar, a trav茅s de los foros internacionales existentes y otras iniciativas relevantes, incluidas futuras cumbres internacionales sobre seguridad de la IA.
Todos los actores tienen un papel que desempe帽ar para garantizar la seguridad de la IA: naciones, foros internacionales y otras iniciativas, empresas, sociedad civil y el mundo acad茅mico deber谩n trabajar juntos. Al se帽alar la importancia de una IA inclusiva y reducir la brecha digital, reafirmamos que la colaboraci贸n internacional debe esforzarse por involucrar a una amplia gama de socios, seg煤n corresponda, y acogemos con agrado los enfoques y pol铆ticas orientados al desarrollo que podr铆an ayudar a los pa铆ses en desarrollo a fortalecer la creaci贸n de capacidades y el aprovechamiento de la IA. el papel facilitador de la IA para apoyar el crecimiento sostenible y abordar la brecha de desarrollo.
Afirmamos que, si bien la seguridad debe considerarse en todo el ciclo de vida de la IA, los actores que desarrollan capacidades de IA de vanguardia, en particular aquellos sistemas de IA que son inusualmente poderosos y potencialmente da帽inos, tienen una responsabilidad particularmente fuerte de garantizar la seguridad de estos sistemas de IA, incluso a trav茅s de sistemas. para pruebas de seguridad, mediante evaluaciones y mediante otras medidas apropiadas. Alentamos a todos los actores relevantes a brindar transparencia y rendici贸n de cuentas apropiadas al contexto en sus planes para medir, monitorear y mitigar capacidades potencialmente da帽inas y los efectos asociados que puedan surgir, en particular para prevenir el uso indebido y problemas de control, y la amplificaci贸n de otros riesgos.
En el contexto de nuestra cooperaci贸n, y para informar la acci贸n a nivel nacional e internacional, nuestra agenda para abordar el riesgo fronterizo de la IA se centrar谩 en:
-
Identificar los riesgos de seguridad de la IA de inter茅s compartido, construir una comprensi贸n compartida cient铆fica y basada en evidencia de estos riesgos, y mantener esa comprensi贸n a medida que las capacidades contin煤an aumentando, en el contexto de un enfoque global m谩s amplio para comprender el impacto de la IA en nuestras sociedades.
-
Construir pol铆ticas respectivas basadas en riesgos en nuestros pa铆ses para garantizar la seguridad a la luz de dichos riesgos, colaborando seg煤n corresponda y reconociendo que nuestros enfoques pueden diferir seg煤n las circunstancias nacionales y los marcos legales aplicables. Esto incluye, junto con una mayor transparencia por parte de los actores privados que desarrollan capacidades de IA de vanguardia, m茅tricas de evaluaci贸n apropiadas, herramientas para pruebas de seguridad y el desarrollo de capacidades e investigaciones cient铆ficas relevantes del sector p煤blico.
Para promover esta agenda, decidimos apoyar una red internacionalmente inclusiva de investigaci贸n cient铆fica sobre la seguridad de la IA en la frontera que abarque y complemente la colaboraci贸n multilateral, plurilateral y bilateral existente y nueva, incluso a trav茅s de foros internacionales existentes y otras iniciativas relevantes, para facilitar la provisi贸n de la mejor ciencia disponible para la formulaci贸n de pol铆ticas y el bien p煤blico.
En reconocimiento del potencial transformador positivo de la IA, y como parte de garantizar una cooperaci贸n internacional m谩s amplia en materia de IA, decidimos mantener un di谩logo global inclusivo que involucre a los foros internacionales existentes y otras iniciativas relevantes y contribuya de manera abierta a debates internacionales m谩s amplios, y Continuar la investigaci贸n sobre la seguridad de la IA en la vanguardia para garantizar que los beneficios de la tecnolog铆a puedan aprovecharse de manera responsable para bien y para todos. Esperamos volver a reunirnos en 2024.
Los pa铆ses representados fueron:
-
Alemania
-
Australia
-
Brasil
-
颁补苍补诲谩
-
Chile
-
China
-
Emiratos 脕rabes Unidos
-
贰蝉辫补帽补
-
Estados Unidos de Am茅rica
-
Filipinas
-
Francia
-
India
-
Indonesia
-
Irlanda
-
Israel
-
Italia
-
闯补辫贸苍
-
Kenia
-
Nigeria
-
Pa铆ses Bajos
-
Reino de Arabia Saudita
-
Reino Unido de la Gran Breta帽a e Irlanda del Norte
-
Rep煤blica de Corea
-
Ruanda
-
Singapur
-
Suiza
-
罢耻谤辩耻铆补
-
Ucrania
-
Uni贸n Europea
Las referencias a 鈥済obiernos鈥� y 鈥減a铆ses鈥� incluyen organizaciones internacionales que act煤an de conformidad con sus competencias legislativas o ejecutivas.