Przejdź do treści

AI Assurance Institute

AI Assurance Institute to organizacja skoncentrowana na zapewnianiu niezależnej, rygorystycznej i międzynarodowo zharmonizowanej oceny systemów sztucznej inteligencji. Jej celem jest wspieranie organizacji w wykazaniu, że ich systemy AI są bezpieczne, etyczne, przejrzyste i zgodne z regulacjami takimi jak EU AI Act, NIST AI RMF czy ISO/IEC 42001.


prEN 18282:2025

Cybersecurity for Artificial Intelligence Systems

Status: draft

Projekt europejskiego standardu definiującego wymagania dla systemów zarządzania ryzykiem (RMS) w organizacjach tworzących lub wdrażających systemy sztucznej inteligencji. Standard wspiera zgodność z EU AI Act, określając strukturę procesów do identyfikowania, oceny, leczenia i monitorowania ryzyk związanych z bezpieczeństwem, etyką i ochroną praw podstawowych użytkowników AI. Jego celem jest zapewnienie bezpiecznych, przejrzystych i odpowiedzialnych systemów AI w całym cyklu życia produktu.

Źródło:https://aiassurance.institute/pren-18282-clauses.html

prEN 18286

Quality Management System for AI Act regulatory compliance

Projekt europejskiego standardu definiującego wymagania dla systemów zarządzania jakością (QMS) w organizacjach opracowujących lub wdrażających systemy sztucznej inteligencji. Standard wspiera zgodność z EU AI Act, zapewniając, że procesy tworzenia, testowania i wdrażania AI są kontrolowane, powtarzalne i zgodne z regulacjami, minimalizując ryzyka związane z bezpieczeństwem, jakością i ochroną praw użytkowników. Jego celem jest umożliwienie organizacjom dostarczania rzetelnych, bezpiecznych i odpowiedzialnych systemów AI.

Źródło:https://www.dinmedia.de/en/draft-standard/din-en-18286/396620255