Wprowadzenie
W tej sekcji przedstawiono kluczowe organizacje i inicjatywy zajmujące się rozwojem pomiarów, bezpieczeństwa, oceny ryzyka i ochrony w dziedzinie sztucznej inteligencji (AI). Każda z nich odgrywa wyjątkową rolę w kształtowaniu sposobu opracowywania, oceny i zarządzania systemami AI — od otwartych testów porównawczych i badań nad zagrożeniami cyfrowymi po programy rządowe oceniające rzeczywisty wpływ i zaawansowane zagrożenia związane z AI.
Organizacje
MLCommons
Globalne konsorcjum inżynierów AI typu non-profit, które przyspiesza innowacje w dziedzinie uczenia maszynowego poprzez tworzenie otwartych testów porównawczych, zbiorów danych i narzędzi do pomiaru wydajności, niezawodności i bezpieczeństwa.
Źródło: https://mlcommons.org/
UL Digital Safety Research Institute
Instytut badawczy zajmujący się zrozumieniem i ograniczaniem ryzyka w ekosystemie cyfrowym i AI, takiego jak zagrożenia dla cyberbezpieczeństwa, dezinformacja i naruszenia prywatności.
Źródło: https://ul.org/institutes-offices/digital-safety/
NIST ARIA (Assessing Risks and Impacts of AI)
Program rządu amerykańskiego realizowany przez Narodowy Instytut Standardów i Technologii, którego celem jest opracowanie metod oceny rzeczywistych zagrożeń i wpływu systemów sztucznej inteligencji na społeczeństwo.
Źródło: https://ai-challenges.nist.gov/aria
AI Security Institute (AISI)
Instytut badawczy wspierany przez rząd Wielkiej Brytanii, prowadzący badania techniczne i oceny zaawansowanych zagrożeń związanych ze sztuczną inteligencją oraz jej bezpieczeństwem, informujący decydentów politycznych i wspierający bezpieczny rozwój sztucznej inteligencji.
Źródło: https://www.aisi.gov.uk/