LLM - Red Team
Wprowadzenie
Ta strona została stworzona dla członków zespołów red team, badaczy sztucznej inteligencji oraz entuzjastów ofensywnych aspektów bezpieczeństwa LLM. Znajdziesz tu narzędzia, ładunki i uwagi dotyczące testowania granic bezpieczeństwa dużych modeli językowych (LLM).
Payloads
Repozytoria z payloadami do wykorzystania podczas testów penetracyjnych:
| Date | Repo | Description | Stars | Watchers | Link |
|---|---|---|---|---|---|
| N/A | mcp-scan | No description | ⭐ 0 | 👁️ 0 | mcp-scan |
| 2026-04-04 | promptfoo | Test your prompts, agents, and RAGs. Red teaming/pentesting/vulnerability scanning for AI. Compare performance of GPT, Claude, Gemini, Llama, and more. Simple declarative configs with command line and CI/CD integration. Used by OpenAI and Anthropic. | ⭐ 19298 | 👁️ 49 | promptfoo |
| 2026-04-03 | Decepticon | Autonomous Hacking Agent for Red Team Testing | ⭐ 958 | 👁️ 7 | Decepticon |
Komercyjne
Nie dodano jeszcze zadnych narzędzi.
Disclaimer
All content in this repository is for educational and research purposes only.
Use responsibly. Know the law. Stay ethical.