Przejdź do treści

LLM - Red Team

Wprowadzenie

Ta strona została stworzona dla członków zespołów red team, badaczy sztucznej inteligencji oraz entuzjastów ofensywnych aspektów bezpieczeństwa LLM. Znajdziesz tu narzędzia, ładunki i uwagi dotyczące testowania granic bezpieczeństwa dużych modeli językowych (LLM).


Payloads

Repozytoria z payloadami do wykorzystania podczas testów penetracyjnych:

Date Repo Description Stars Watchers Link
N/A mcp-scan No description ⭐ 0 👁️ 0 mcp-scan
2026-04-04 promptfoo Test your prompts, agents, and RAGs. Red teaming/pentesting/vulnerability scanning for AI. Compare performance of GPT, Claude, Gemini, Llama, and more. Simple declarative configs with command line and CI/CD integration. Used by OpenAI and Anthropic. ⭐ 19298 👁️ 49 promptfoo
2026-04-03 Decepticon Autonomous Hacking Agent for Red Team Testing ⭐ 958 👁️ 7 Decepticon

Komercyjne

Nie dodano jeszcze zadnych narzędzi.


Disclaimer

All content in this repository is for educational and research purposes only.
Use responsibly. Know the law. Stay ethical.