Les États-Unis, le Royaume-Uni et 16 autres pays signent un accord pour rendre l’IA « sécurisée dès la conception »

Les États-Unis, le Royaume-Uni et 16 autres pays signent un accord pour rendre l’IA « sécurisée dès la conception »

Les États-Unis, le Royaume-Uni et 16 autres pays se sont associés et ont signé un nouvel accord pour rendre l’IA « sécurisée dès la conception ». bien qu’il ne s’agisse que d’une déclaration de principes de base, l’Agence américaine de cybersécurité et de sécurité des infrastructures (CISA) a mentionné qu’il s’agissait d’un pas dans la bonne direction.

L’IA doit devenir beaucoup plus sécurisée qu’elle ne l’est, et nous avons besoin de lois régissant la création de nouveaux systèmes basés sur elle.

Jusqu’à présent, nous avons vu plusieurs utilisations de l’IA, depuis des tâches de base telles que la prise de pourcentages entre deux nombres jusqu’à des réponses complexes. Les applications de l’IA sont nombreuses et ne peuvent tout simplement pas être définies dans une fourchette de chiffres que nous pouvons proposer. Plus un modèle possède de paramètres, plus il s’améliore, et comme l’IA devient une fonctionnalité native sur les téléphones 2024, c’est important.

C’est ce que dit le rapport,

Les États-Unis, la Grande-Bretagne et plus d’une douzaine d’autres pays ont dévoilé dimanche ce qu’un haut responsable américain a décrit comme le premier accord international détaillé sur la manière de protéger l’intelligence artificielle des acteurs malveillants, poussant les entreprises à créer des systèmes d’IA « sécurisés par conception. »

Dans un document de 20 pages dévoilé dimanche, les 18 pays ont convenu que les entreprises qui conçoivent et utilisent l’IA doivent la développer et la déployer de manière à protéger leurs clients et le grand public contre toute utilisation abusive.

Jen Easterly, directrice de la CISA, a également expliqué à quel point il est important que les pays comprennent que le développement de l’IA doit avoir une approche axée sur la sécurité et a même encouragé d’autres pays à se joindre également à cette démarche.

« C’est la première fois que nous voyons une affirmation selon laquelle ces capacités ne devraient pas seulement concerner des fonctionnalités intéressantes et la rapidité avec laquelle nous pouvons les commercialiser ou comment nous pouvons rivaliser pour réduire les coûts », a déclaré Easterly à Reuters, affirmant que les lignes directrices représentent « un accord selon lequel la chose la plus importante à faire lors de la phase de conception est la sécurité. »

L’Allemagne, l’Italie, la République tchèque, l’Estonie, la Pologne, l’Australie, le Chili, Israël, le Nigéria et Singapour ont également signé l’accord. Entre-temps, pour s’assurer que l’IA ne devienne pas une menace, l’Europe va commencer à travailler sur des lois spécifiques qui régissent le développement et la publication de nouveaux systèmes d’IA. Cela signifie que toutes les entreprises réalisant leurs systèmes dans l’UE devront s’assurer qu’il n’existe aucune vulnérabilité susceptible de permettre aux utilisateurs d’utiliser l’IA à mauvais escient.

Il est indéniable que l’utilisation de l’IA ne doit pas être arrêtée, surtout si nous attendons des progrès et des améliorations dans notre technologie et, dans une certaine mesure, dans notre vie quotidienne. Cet accord est bien plus important. Dans le même temps, il est important de comprendre que l’élaboration de lois régissant l’utilisation de l’intelligence artificielle n’est pas une tâche facile et peut prendre des années avant de porter ses fruits. Dans le même temps, vous devez comprendre que l’IA aura des capacités qu’elle développera au fil de son évolution. Cela signifie que la création de réglementations et de règles applicables au modèle d’IA actuel pourrait ne pas suffire dans quelques années, lorsque le même modèle aura appris davantage.

Source d’information : Reuters

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *