Przejdź do treści

Wprowadzenie

Zarządzanie i Zgodność (Governance)

To "Konstytucje" dla Twojego projektu AI. Mówią o tym, jak organizacja powinna podchodzić do ryzyka, etyki i prawa.

Strategia i Bezpieczeństwo Techniczne

Praktyczne podejście do zabezpieczania systemów przed atakami i awariami.

  • Google SAIF: Strategia od giganta – jak budować bezpieczne systemy "by design".
  • SAIL Framework: Skupia się na zapewnieniu bezpieczeństwa w całym cyklu życia modelu.
  • CAI Framework: Specjalistyczne narzędzie, jeśli pracujesz z robotami lub systemami autonomicznymi.

Bazy Wiedzy o Ryzyku i Atakach

Encyklopedie problemów. Zaglądasz tu, by wiedzieć, co może pójść nie tak.

  • MIT AI Risk Repository: Gigantyczna lista ryzyk (np. uprzedzenia, błędy techniczne).
  • IBM AI Risk Atlas: Taksonomia ryzyk – pomaga "nazwać" problem, z którym się mierzysz.
  • MITRE ATLAS: Baza wiedzy o tym, jak hakerzy atakują AI (taktyki i techniki).

Frameworki

NIST’s AI Risk Management Framework (AI RMF)

Źródło: https://www.nist.gov/itl/ai-risk-management-framework

Dobrowolne, ogólne ramy mające na celu pomoc organizacjom w systematycznej identyfikacji, ocenie i zarządzaniu ryzykiem w systemach sztucznej inteligencji w całym cyklu ich życia. Kładą one nacisk na zarządzanie, przejrzystość, odpowiedzialność i wiarygodność.

✅ Zalety:

  • Zapewniają kompleksowe wytyczne dotyczące zarządzania ryzykiem we wszystkich fazach cyklu życia sztucznej inteligencji.
  • Są dobrze dostosowane do globalnych standardów, takich jak ISO i unijna ustawa o sztucznej inteligencji, co ułatwia zapewnienie zgodności z przepisami w wielu krajach.
  • Promuje przejrzystość i odpowiedzialność, budując zaufanie i pewność interesariuszy.
  • Jest elastyczny i można go dostosować do różnych sektorów i poziomów dojrzałości AI.

❌ Wady:

  • Dobrowolność i brak certyfikacji – organizacje nie są zobowiązane do jego stosowania.
  • Wytyczne wysokiego szczebla nie zawierają szczegółowych wskazówek operacyjnych („co” kontra „jak”).
  • Wymagania dotyczące zasobów i wiedzy specjalistycznej mogą być uciążliwe, zwłaszcza dla małych zespołów.
  • Wymaga dostosowania do konkretnych kontekstów; uniwersalne zastosowanie może wydawać się biurokratyczne.

AI Controls Matrix (AICM)

Źródło: https://cloudsecurityalliance.org/artifacts/ai-controls-matrix

Szczegółowe ramy celów kontroli definiujące 243 kontrole bezpieczeństwa i zarządzania AI w 18 domenach, odnoszące się do norm takich jak ISO 42001, ISO 27001 i NIST AI RMF w celu wspierania bezpiecznego i odpowiedzialnego wdrażania AI.

✅ Zalety:

  • Niezależny od dostawcy, kompleksowy zestaw kontroli dostosowanych do ryzyka i bezpieczeństwa AI.
  • Odnosi się do wielu międzynarodowych norm, umożliwiając dostosowanie i gotowość do audytu.
  • Pomaga wdrożyć zarządzanie poprzez konkretne cele kontroli.

❌ Wady:

  • Duży i złożony – może być przytłaczający bez odpowiednich narzędzi lub zaawansowanej wiedzy specjalistycznej.
  • Skupia się głównie na środowiskach chmurowych – może wymagać dostosowania do użytku lokalnego/brzegowego.
  • Dojrzałość różni się w zależności od dziedziny i wytycznych – niektóre kontrole mogą nie zawierać szczegółowych przykładów dotyczących sztucznej inteligencji.

Google’s Secure AI Framework (SAIF)

Źródło: https://safety.google/intl/en_in/safety/saif/

Strategiczna struktura bezpieczeństwa zajmująca się ryzykiem związanym ze sztuczną inteligencją, takim jak naruszenie modelu, zatrucie danych i kwestie prywatności, poprzez integrację zasad bezpieczeństwa na etapach projektowania, rozwoju i wdrażania sztucznej inteligencji.

✅ Zalety:

  • Nacisk na bezpieczeństwo dostosowany do rzeczywistych zagrożeń związanych ze sztuczną inteligencją/uczeniem maszynowym, takich jak zatrucie danych i manipulowanie nimi.
  • Rozszerza zarządzanie sztuczną inteligencją poza zgodność z przepisami, obejmując również luki techniczne.
  • Pomaga ujednolicić bezpieczeństwo z zarządzaniem ryzykiem produktowym i zasadami prywatności.

❌ Wady:

  • Nie jest szeroko znormalizowane ani certyfikowane poza ekosystemem Google. (wnioskowane)
  • Wysoki poziom — bardziej koncepcyjna mapa ryzyka niż pełne ramy kontroli.

MIT AI Risk Repository

Źródło: https://airisk.mit.edu

Wyselekcjonowane repozytorium udokumentowanych zagrożeń związanych ze sztuczną inteligencją, trybów awarii i wzorców łagodzenia ryzyka, wspierające badania i praktyki oceny ryzyka. (Ogólne źródło wiedzy na temat ryzyka związanego ze sztuczną inteligencją).

✅ Zalety:

  • Zbiorcze informacje na temat ryzyka i udokumentowane przypadki awarii w świecie rzeczywistym.
  • Przydatne do badań i porównawczych analiz ryzyka.

❌ Wady:

  • Nie określa formalnych ram zarządzania ani kontroli.
  • Nie zostało zaprojektowane jako standard zgodności.

IBM AI Risk Atlas

Źródło: https://ibm.github.io/ai-atlas-nexus/

Strukturalna taksonomia i baza wiedzy dotycząca ryzyka związanego ze sztuczną inteligencją, pomagająca organizacjom identyfikować, klasyfikować i planować działania łagodzące w całym cyklu życia sztucznej inteligencji.

✅ Zalety:

  • Bogata taksonomia wspiera systematyczną identyfikację ryzyka.
  • Praktyczna w ocenie ryzyka przedsiębiorstwa.

❌ Wady:

  • Nie stanowi samodzielnej struktury zarządzania z mechanizmami kontroli.
  • Może wymagać integracji z innymi standardami (ISO, NIST) w celu zapewnienia pełnej zgodności.

MITRE ATLAS

Źródło: https://atlas.mitre.org/matrices/ATLAS

Baza wiedzy o działaniach przeciwników, zawierająca katalog rzeczywistych taktyk, technik i procedur stosowanych do ataków na systemy AI, zaprojektowana w celu wsparcia działań zespołów red team, modelowania zagrożeń i testowania zabezpieczeń.

✅ Zalety:

  • Dostarcza konkretnych technik przeciwników do praktycznych testów.
  • Przydatna dla zespołów ds. bezpieczeństwa budujących proaktywne systemy obrony.

❌ Wady:

  • Nie jest to ramy zarządzania ani zarządzania ryzykiem.
  • Skupia się na zagrożeniach związanych z przeciwnikami, a nie na zgodności organizacyjnej.

OWASP Top 10 for LLM Applications

Źródło: https://owasp.org/www-project-top-10-for-large-language-model-applications/

Opracowana przez społeczność lista najczęściej występujących luk w zabezpieczeniach aplikacji LLM (np. wstrzyknięcie polecenia, ujawnienie poufnych informacji) wraz z wytycznymi dotyczącymi ich ograniczania.

✅ Zalety:

  • Bardzo praktyczne i przyjazne dla programistów skupienie się na konkretnych lukach w zabezpieczeniach.
  • Szeroko cytowane przez specjalistów ds. bezpieczeństwa.

❌ Wady:

  • Wąski zakres — nie zapewnia holistycznego zarządzania ani zarządzania ryzykiem w całym cyklu życia.
  • Musi być połączona z szerszymi ramami (np. NIST) w celu zarządzania ryzykiem związanym ze sztuczną inteligencją w przedsiębiorstwie.

SAIL Framework

Źródło: https://www.pillar.security/sail

Ramy zapewnienia bezpieczeństwa dotyczące kontroli bezpieczeństwa w całym cyklu życia i zarządzania wdrożeniami sztucznej inteligencji.

✅ Zalety:

  • Kładzie nacisk na praktyki bezpieczeństwa i zapewnienia bezpieczeństwa w całym cyklu życia.

❌ Wady:

  • Mniej ugruntowane/znormalizowane w porównaniu z ramami NIST lub CSA.
  • Wytyczne dotyczące wdrażania mogą być mniej dojrzałe.

CAI (Cyber-AI) Framework

Źródło: https://github.com/aliasrobotics/cai

Struktura zorientowana na cyberbezpieczeństwo, skupiająca się na zagrożeniach związanych ze sztuczną inteligencją, wektorach zagrożeń i środkach zaradczych — zwłaszcza w przypadku robotyki i systemów autonomicznych.

✅ Zalety:

  • Praktyczne skupienie się na rzeczywistych scenariuszach zagrożeń związanych ze sztuczną inteligencją.

❌ Wady:

  • Niszowe podejście; nie jest to kompletna struktura zarządzania lub zgodności.