NLP - Red Team
Witamy w NLP Red Teaming Notes – wyselekcjonowanym zbiorze narzędzi, ładunków, notatek, aplikacji szkoleniowych i informacji o wysokim znaczeniu, służących do testowania granic bezpieczeństwa przetwarzania języka naturalnego (NLP).
To repozytorium zostało stworzone dla członków zespołów red team, badaczy sztucznej inteligencji, hakerów i wszystkich osób zajmujących się ofensywną stroną bezpieczeństwa NLP.
Narzędziownik
Narzędzia ofensywane do testowania bezpieczeństwa NLP:
| Date | Repo | Description | Stars | Watchers | Link |
|---|---|---|---|---|---|
| 2025-07-10 | TextAttack | TextAttack 🐙 is a Python framework for adversarial attacks, data augmentation, and model training in NLP https://textattack.readthedocs.io/en/master/ | ⭐ 3397 | 👁️ 34 | TextAttack |
| 2022-04-19 | OpenAttack | An Open-Source Package for Textual Adversarial Attack. | ⭐ 772 | 👁️ 16 | OpenAttack |
| 2021-12-13 | TextFooler | A Model for Natural Language Attack on Text Classification and Inference | ⭐ 530 | 👁️ 11 | TextFooler |
Znane Exploits & CVEs
https://www.cve.org/CVERecord/SearchResults?query=NLP
Zastrzeżenie
Wszystkie treści zawarte w tym repozytorium służą wyłącznie celom edukacyjnym i badawczym.
Korzystaj z nich w sposób odpowiedzialny. Zapoznaj się z przepisami prawa. Postępuj zgodnie z zasadami etyki.