Kennt Är legal Ufuerderungen
Den NIST AI Risk Management Framework (AI RMF) ass als fräiwëllege Kader konzipéiert, deen op all Organisatioun applicabel ass, déi am Design, der Entwécklung, dem Asaz oder der Notzung vu kënschtlechen Intelligenzsystemer involvéiert ass. Et ass keng obligatoresch Konformitéitsufuerderung am selwechte Sënn wéi verschidde Reglementer et sinn (zum Beispill den EU AI Act). Wéi och ëmmer, et bitt ganz nëtzlech Richtlinnen - denkt drun als Guide fir Är Organisatioun ze hëllefen sécherzestellen datt d’Virdeeler vun AI verantwortlech realiséiert ginn.
Dëse Post mécht eng Serie vu Publikatiounen op, déi den NIST AI RMF diskutéieren - Punkt fir Punkt.
Govern 1.1
Govern 1.1 geet iwwer legal a reglementaresch Ufuerderungen. Si musse verstanen, geréiert an dokumentéiert ginn, awer wat genee beinhalt dat?
- Identifizéieren a verstoen lokal an international Gesetzer a Reglementer am Zesummenhang mat der AI Entwécklung, dem Asaz an der Notzung
Definéiert an dokumentéiert all Mindestufuerderungen a Gesetzer a Reglementer: GDPR (EU), Net-Diskriminéierungsgesetzer (Är AI Systemer kënnen Entscheedungen iwwer Eenzelpersounen treffen!), IP Gesetzer, Cybersecurity, an Industrie- an Uwendungsspezifesch Reglementer (z.B. HIPAA an FDA wäerte bestëmmten Ufuerderungen un AI Systemer stellen, déi am Gesondheetswiesen benotzt ginn - am Zesummenhang mam Schutz vu Patientegesondheetsinformatiounen an der Sécherheet an Effizienz vun AI-ugedriwwene medizineschen Apparater, respektiv).
- Iwwerwaacht all Ännerungen an Aktualiséierungen - Dir wëllt um Lafende bleiwen iwwer déi evoluéierend reglementaresch Landschaft
-
Abonnéiert Blogs oder Newsletteren déi reegelméisseg Aktualiséierunge publizéieren
-
Setzt Google (oder aner) Schlësselwuert Alarmer op fir Notifikatiounen iwwer nei Publikatiounen ze kréien
-
Gitt Industrieverbänn bäi fir mat Branchenkollegen a Kontakt ze trieden
-
Besicht Konferenzen a Webinaren
-
Benotzt sozial Medien! Follegt Schlësselinfluencer: Regulatiounsexperten, Industrieleaderen a Regierungsagenturen
- Alignéiert Risikomanagement Efforten mat applicabele legale Standarden.
Hutt Dir schonn e Risikomanagement Kader op der Plaz? Kartéiert Risiken op legal Ufuerderungen, identifizéiert d’Lücken - adresséieren all Är Risikomanagement Praktiken adequat legal Ufuerderungen?
- Erstellt an ënnerhält Politiken fir d’Formatioun an d’Neiformatioun vum Personal iwwer legal a reglementaresch Aspekter, déi den AI Design, d’Entwécklung, den Asaz an d’Notzung beaflossen
Esou Formatioun kann enthalen: Dateschutzgesetzer, AI Fairness, IP Rechter, Cyber- an Datesécherheet, Industriespezifesch Reglementer, souwéi rollbaséiert Formatioun fir Data Scientists, Ingenieuren a Projetmanager.
Maacht et relevant an interessant: benotzt real-Welt Fallstudien an hypothetesch Szenarien, organiséiert interaktiv Atelieren a Simulatiounen, Rollespiller, invitéiert extern Experten, an encouragéiert d’Personal un relevante Konferenzen, Webinaren an Online Coursen deelzehuelen.
- Vergewëssert Iech datt den AI System iwwerpréift gouf fir seng Konformitéit mat applicabele Gesetzer, Reglementer, Standarden a Richtlinnen
-
Féiert intern Auditen duerch
-
Engagéiert extern Auditeuren oder Beroder fir eng onofhängeg Bewäertung vun der Konformitéit vun Ärem AI System ze bidden
-
Benotzt Checklëschten
-
Ënnerhält detailléiert Dokumentatioun iwwer Auditresultater a Korrekturaktiounen
-
Féiert Fairness Bewäertunge vum AI System duerch (demographesch Paritéit, Chancëgläichheet, disparaten Impakt, kontrafaktuell Tester - bleift drun fir méi Informatiounen iwwer dës an aner Metriken)
Den nächste Schrëtt?
Wéi mir exploréiert hunn, bitt Govern 1.1 vum NIST AI RMF eng kloer Direktiv: kennt Är legal Verflichtungen. Den nächste kritesche Schrëtt ass dëst Verständnis an konkret Aktiounen ëmzesetzen. Mir encouragéieren Iech déi aktuell Prozesser vun Ärer Organisatioun ze bewäerten an eis aner Posts iwwer de Standard ze exploréieren a wéi Dir domat konform sidd fir d’Vertrauenswierdegkeet vun den AI Systemer ze garantéieren déi Dir entwéckelt, asetzt oder benotzt.