Przejdź do treści

NLP - Red Team

Witamy w NLP Red Teaming Notes – wyselekcjonowanym zbiorze narzędzi, ładunków, notatek, aplikacji szkoleniowych i informacji o wysokim znaczeniu, służących do testowania granic bezpieczeństwa przetwarzania języka naturalnego (NLP).
To repozytorium zostało stworzone dla członków zespołów red team, badaczy sztucznej inteligencji, hakerów i wszystkich osób zajmujących się ofensywną stroną bezpieczeństwa NLP.


Narzędziownik

Narzędzia ofensywane do testowania bezpieczeństwa NLP:

Date Repo Description Stars Watchers Link
2025-07-10 TextAttack TextAttack 🐙 is a Python framework for adversarial attacks, data augmentation, and model training in NLP https://textattack.readthedocs.io/en/master/ ⭐ 3397 👁️ 34 TextAttack
2022-04-19 OpenAttack An Open-Source Package for Textual Adversarial Attack. ⭐ 772 👁️ 16 OpenAttack
2021-12-13 TextFooler A Model for Natural Language Attack on Text Classification and Inference ⭐ 530 👁️ 11 TextFooler

Znane Exploits & CVEs

https://www.cve.org/CVERecord/SearchResults?query=NLP


Zastrzeżenie

Wszystkie treści zawarte w tym repozytorium służą wyłącznie celom edukacyjnym i badawczym.
Korzystaj z nich w sposób odpowiedzialny. Zapoznaj się z przepisami prawa. Postępuj zgodnie z zasadami etyki.