Déclaration de Bletchley par les pays participant au Sommet sur la sécurité de l’IA, du 1er au 2 novembre 2023 – traduite par ChatGPT

closeCet article a été publié il y a 11 mois 10 jours, il est donc possible qu’il ne soit plus à jour. Les informations proposées sont donc peut-être expirées.

https://chat.openai.com/share/9ef13066-63f1-4720-9603-5545d4f04382
lien original : https://www.gov.uk/government/publications/ai-safety-summit-2023-the-bletchley-declaration/the-bletchley-declaration-by-countries-attending-the-ai-safety-summit-1-2-november-2023

Publié le 1er novembre 2023

L’intelligence artificielle (IA) offre d’énormes opportunités mondiales : elle a le potentiel de transformer et d’améliorer le bien-être, la paix et la prospérité humaine. Pour réaliser cela, nous affirmons que, dans l’intérêt de tous, l’IA devrait être conçue, développée, déployée et utilisée de manière sûre, centrée sur l’humain, digne de confiance et responsable. Nous saluons les efforts de la communauté internationale jusqu’à présent pour coopérer sur l’IA afin de promouvoir une croissance économique inclusive, un développement durable et l’innovation, pour protéger les droits de l’homme et les libertés fondamentales, et pour favoriser la confiance du public dans les systèmes d’IA afin de réaliser pleinement leur potentiel.

Les systèmes d’IA sont déjà déployés dans de nombreux domaines de la vie quotidienne, notamment le logement, l’emploi, les transports, l’éducation, la santé, l’accessibilité et la justice, et leur utilisation est susceptible d’augmenter. Nous reconnaissons que c’est donc un moment unique pour agir et affirmons la nécessité du développement sûr de l’IA et des opportunités de transformation de l’IA pour être utilisées pour le bien de tous, de manière inclusive dans nos pays et à l’échelle mondiale. Cela inclut les services publics tels que la santé et l’éducation, la sécurité alimentaire, la science, l’énergie propre, la biodiversité et le climat, afin de réaliser la jouissance des droits de l’homme et de renforcer les efforts en vue de la réalisation des Objectifs de développement durable des Nations unies.

Aux côtés de ces opportunités, l’IA pose également des risques significatifs, y compris dans ces domaines de la vie quotidienne. À cet égard, nous saluons les efforts internationaux pertinents pour examiner et aborder l’impact potentiel des systèmes d’IA dans les forums existants et d’autres initiatives pertinentes, ainsi que la reconnaissance de la nécessité de prendre en compte la protection des droits de l’homme, la transparence et l’explicabilité, l’équité, la responsabilité, la réglementation, la sécurité, la surveillance humaine appropriée, l’éthique, l’atténuation des biais, la confidentialité et la protection des données. Nous notons également le potentiel de risques imprévus découlant de la capacité à manipuler le contenu ou à générer un contenu trompeur. Toutes ces questions sont d’une importance cruciale et nous affirmons la nécessité et l’urgence de les aborder.

Des risques de sécurité particuliers se posent au « frontière » de l’IA, entendue comme étant ces modèles d’IA générale très capables, y compris les modèles fondamentaux, qui pourraient effectuer une grande variété de tâches – ainsi que des IA étroites spécifiques pertinentes qui pourraient présenter des capacités pouvant causer des dommages – qui correspondent ou dépassent les capacités présentes dans les modèles les plus avancés d’aujourd’hui. Des risques importants peuvent découler d’une utilisation intentionnelle potentiellement abusive ou de problèmes non intentionnels de contrôle liés à l’alignement sur l’intention humaine. Ces problèmes sont en partie dus au fait que ces capacités ne sont pas entièrement comprises et sont donc difficiles à prédire. Nous sommes particulièrement préoccupés par de tels risques dans des domaines tels que la cybersécurité et la biotechnologie, ainsi que là où les systèmes d’IA frontalière peuvent amplifier des risques tels que la désinformation. Il existe un potentiel de dommages graves, voire catastrophiques, délibérés ou non intentionnels, découlant des capacités les plus importantes de ces modèles d’IA. Compte tenu du rythme rapide et incertain de l’IA, et dans le contexte de l’accélération de l’investissement dans la technologie, nous affirmons qu’approfondir notre compréhension de ces risques potentiels et des actions à prendre pour y remédier est particulièrement urgent.

De nombreux risques découlant de l’IA sont intrinsèquement internationaux et doivent donc être traités au mieux par le biais d’une coopération internationale. Nous nous engageons à travailler ensemble de manière inclusive pour garantir une IA centrée sur l’humain, digne de confiance et responsable qui soit sûre, et qui soutienne le bien de tous, à travers les forums internationaux existants et d’autres initiatives pertinentes, pour promouvoir la coopération afin de faire face à la vaste gamme de risques posés par l’IA. Ce faisant, nous reconnaissons que les pays devraient tenir compte de l’importance d’une approche de gouvernance et de réglementation pro-innovation et proportionnée qui maximise les avantages et tienne compte des risques associés à l’IA. Cela pourrait inclure, le cas échéant, des classifications et des catégorisations des risques basées sur les circonstances nationales et les cadres juridiques applicables. Nous notons également la pertinence d’une coopération, le cas échéant, sur des approches telles que des principes communs et des codes de conduite. En ce qui concerne les risques spécifiques les plus susceptibles d’être liés à l’IA frontalière, nous nous engageons à intensifier et à maintenir notre coopération, et à l’élargir avec d’autres pays, pour identifier, comprendre et agir, le cas échéant, à travers les forums internationaux existants et d’autres initiatives pertinentes, y compris les futurs Sommets internationaux sur la sécurité de l’IA.

Tous les acteurs ont un rôle à jouer pour garantir la sécurité de l’IA : les nations, les forums internationaux et autres initiatives, les entreprises, la société civile et le milieu universitaire devront travailler ensemble. Notant l’importance d’une IA inclusive et du comblement de la fracture numérique, nous réaffirmons que la collaboration internationale devrait s’efforcer d’engager et d’impliquer un large éventail de partenaires, le cas échéant, et accueillir des approches et des politiques orientées vers le développement

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *