LatticeFlow AI, la plateforme d’IA leader pour
la création de solutions d’IA sûres et fiables, est fière de
rejoindre le U.S. AI Safety Institute Consortium (AISIC). Suite à
une série d’engagements stratégiques avec des agences
gouvernementales américaines et des organismes de normalisation
internationaux, notamment l’ISO et le NIST, LatticeFlow AI rejoint
des organisations d’IA de premier plan afin d’élargir et
d’accélérer ses efforts visant à garantir l’adoption sûre et
responsable de solutions d’IA.
LatticeFlow AI, la plateforme leader permettant aux équipes
d’intelligence artificielle (IA) de construire des solutions d’IA
performantes, sûres et fiables, est fière d’annoncer qu’elle a
rejoint le U.S. AI Safety Institute Consortium (AISIC). Les
chercheurs en IA de LatticeFlow soutiendront le groupe de travail
n° 3, qui se concentre sur l’évaluation des capacités. En
collaboration avec le National Institute of Standards &
Technology (NIST) et d’autres membres du consortium, LatticeFlow AI
soutiendra le développement de méthodes, de références et
d’environnements de test qui aident les organisations à rendre
opérationnelles les pratiques décrites dans le cadre de gestion des
risques liés à l’IA (RMF) du NIST.
Dave Henry, vice-président du développement commercial chez
LatticeFlow AI, ajoute : « Les programmes de sécurité de l’IA sont
interdisciplinaires par nature et leur exécution nécessite un large
éventail de compétences techniques et de gestion. Le Consortium
rassemble divers experts pour créer des pratiques durables et
innovantes qui favorisent une IA digne de confiance. Nous sommes
impatients d’apporter nos connaissances sur la sécurité des modèles
d’IA et de collaborer sur de nouvelles approches pour des
évaluations évolutives. »
Les dirigeants exigent une IA digne de confiance
Malgré la précision impressionnante des modèles d’IA démontrée
dans les projets pilotes et les projets de validation de principe,
construire des solutions d’IA qui fonctionnent de manière fiable
sur des données du monde réel reste un immense défi. Cela concerne
à la fois les équipes techniques qui conçoivent et fournissent des
solutions d’IA et les équipes de direction qui doivent quantifier
les risques et approuver l’utilisation des solutions d’IA dans les
opérations critiques. En conséquence, 85 % des modèles ne sont
jamais mis en production et, parmi ceux qui le sont, 91 % se
dégradent au fil du temps.
« Malheureusement, les déploiements d’IA de grande valeur sont
retardés en raison du retard des développeurs, du manque d’une
bonne gouvernance des données et de l’incapacité à quantifier les
risques possibles associés à l’utilisation de leurs modèles d’IA »,
déclare Randolph Kahn Esq., président de Kahn Consulting Inc. « Les
consortiums tels que l’AISIC peuvent produire des lignes
directrices détaillées et des bonnes pratiques, et lorsqu’ils sont
associés à la technologie de LatticeFlow AI, cela peut conduire à
une réduction significative du temps et des coûts nécessaires pour
réaliser des évaluations de risques approfondies et exploiter la
valeur des systèmes d’IA. »
Le U.S. AI Safety Institute Consortium
L’AISIC a été créé par le National Institute of Standards and
Technology (NIST) du ministère américain du commerce pour
contribuer aux actions prioritaires définies dans le décret du
président américain Joe Biden sur le développement et l’utilisation
sûrs, sécurisés et fiables de l’IA. Il s’agit notamment d’élaborer
des lignes directrices pour les équipes d’experts, des normes
d’évaluation technique et des pratiques de gestion des risques,
entre autres éléments clés du développement d’une IA digne de
confiance et de son utilisation responsable.
Contributions de LatticeFlow AI à la sécurité et à la
fiabilité de l’IA
L’association de LatticeFlow AI avec l’AISIC fait suite à une
série de contributions apportées par l’équipe de LatticeFlow AI aux
objectifs définis par l’AISIC et le décret du président Joe Biden.
Depuis 2020, LatticeFlow AI est un contributeur technique invité à
des initiatives clés en matière de sécurité de l’IA au sein de
l’Organisation internationale de normalisation, où il a activement
contribué au groupe de travail axé sur le développement et les
normes de l’IA digne de confiance. Plus tôt cette année,
LatticeFlow AI a accueilli des leaders renommés de l’IA à l’AI
House du Forum économique mondial, réunissant des personnalités
clés de l’IA, notamment Gary Marcus (NYU), Apostol Vassilev (NIST),
Kai Zenner (Parlement européen), Matthias Bossardt (KPMG), Thomas
Stauner (BMW), entre autres experts de l’industrie, pour se plonger
dans les derniers développements de l’IA et discuter de l’adoption
responsable de l’IA.
Des normes à la pratique : première évaluation de l’IA pour
une grande banque suisse
Au-delà du développement de directives et de normes en matière
d’IA, LatticeFlow AI a annoncé cette année la première évaluation
technique de l’IA pour la Migros Bank, une grande banque suisse,
démontrant comment ces normes d’IA sont utilisées dans la pratique
pour atténuer les risques et assurer la conformité réglementaire
des solutions d’IA critiques pour l’entreprise. Les résultats de
cette évaluation, ainsi qu’un plan concret pour mettre en œuvre la
gouvernance de l’IA et les évaluations techniques de l’IA dans les
entreprises et les gouvernements, ont été présentés lors d’un
événement dédié organisé à l’ETH AI Center.
Engagement de LatticeFlow AI auprès du U.S. et NIST AI Safety
Institute Consortium
Avec ses contributions à l’AISIC, LatticeFlow AI poursuivra son
engagement à aider les agences gouvernementales américaines telles
que l’armée américaine à garantir la sécurité et la fiabilité des
systèmes d’IA critiques. L’année dernière, des représentants de la
Maison-Blanche ont annoncé que LatticeFlow AI avait remporté la
première place dans la catégorie « red teaming » du AI Privacy
Prize Challenge. Par la suite, la société a annoncé une expansion
stratégique vers les États-Unis et un engagement stratégique de
trois ans avec l’armée américaine pour construire des solutions
d’IA résilientes de nouvelle génération pour des cas d’utilisation
de défense critiques.
« Rejoindre l’AISIC nous permettra d’accélérer et d’élargir
notre impact en alignant nos efforts pour garantir la confiance et
la sécurité de l’IA avec les leaders mondiaux de l’IA, les
entreprises et les gouvernements », déclare Petar Tsankov,
cofondateur et directeur général de LatticeFlow AI.
Vous souhaitez en savoir plus ?
- Regardez la rediffusion de notre événement
sur la gouvernance et les audits de l’IA :
naviguer dans les
risques et la conformité de l’IA.
- Rendez-vous sur notre site Web pour
apprendre comment gérer le risque de votre modèle d’IA avec des
évaluations techniques complètes de l’IA.
- Si vous souhaitez effectuer une évaluation
de l’IA, prenez rendez-vous avec un expert en IA de
LatticeFlow.
À propos de LatticeFlow AI
LatticeFlow AI offre une plateforme IA de pointe qui permet aux
entreprises de construire une IA performante, sûre et digne de
confiance à grande échelle. Notre plateforme est conçue pour
concrétiser toute la valeur de l’IA en abordant de manière
systématique les préoccupations de modèle et de données critiques
grâce à des processus automatisés et des flux de travail
intelligents sur l'ensemble du cycle de vie de votre IA.
Le texte du communiqué issu d’une traduction ne doit d’aucune
manière être considéré comme officiel. La seule version du
communiqué qui fasse foi est celle du communiqué dans sa langue
d’origine. La traduction devra toujours être confrontée au texte
source, qui fera jurisprudence.
Consultez la
version source sur businesswire.com : https://www.businesswire.com/news/home/20240423501722/fr/
Requêtes médias : media@latticeflow.ai