Скачать 

[Udemy] Тестирование на проникновение моделей GenAI LLM: защита больших языковых моделей [Start Tech Academy]

  • Дата начала
Цена: 90 РУБ
Robot
Robot
Складчик
  • #1

[Udemy] Тестирование на проникновение моделей GenAI LLM: защита больших языковых моделей [Start Tech Academy]

Ссылка на картинку
Pentesting GenAI LLM models:
Securing Large Language Models


Освойте безопасность LLM: тестирование на проникновение, Red Teaming и MITRE ATT&CK для защищенных больших языковых моделей.

Чему вы научитесь:
  • Понимать уникальные уязвимости больших языковых моделей (LLM) в реальных приложениях.
  • Изучите основные концепции тестирования на проникновение и их применение в системах генеративного ИИ.
  • Освоите процесс Red Teaming для LLM, используя практические приемы и моделирование реальных атак.
  • Проанализируете, почему традиционные тесты не обеспечивают достаточной безопасности GenAI, и изучите более эффективные методы оценки.
  • Изучите основные уязвимости, такие как немедленная инъекция, галлюцинации, предвзятые реакции и многое другое.
  • Используете фреймворк MITRE ATT&CK для разработки тактики противодействия, направленной против LLM.
  • Выявите и устраните угрозы, характерные для конкретных моделей, такие как чрезмерное агентство, кража моделей и небезопасная обработка
  • Проведение и предоставление отчетов по результатам эксплуатации приложений на основе LLM
Учебная программа курса:

9 разделов • 53 лекций • Общая продолжительность 3 ч 21 мин

1.Введение
2.Введение в LLM Security & Penetration Testing
3.Обзор уязвимостей LLM
4.Основы тестирования на проникновение и Red Teaming
5.Red Teaming для LLM
6.Стратегии отчетности и смягчения последствий
7.Структура MITRE ATT&CK для студентов LLM
8.Уязвимости приложений LLM
9.Заключение

Описание:

Red Teaming & Penetration Testing for LLMs — это тщательно структурированный курс, предназначенный для специалистов по безопасности, разработчиков ИИ и этичных хакеров, стремящихся защитить генеративные приложения ИИ. От основополагающих концепций безопасности LLM до продвинутых методов red teaming, этот курс снабжает вас как знаниями, так и практическими навыками для защиты систем LLM.

На протяжении всего курса вы будете заниматься практическими кейсами и моделированием атак, включая демонстрации по быстрому внедрению, раскрытию конфиденциальных данных, обработке галлюцинаций, отказу в обслуживании модели и небезопасному поведению плагина. Вы также научитесь использовать инструменты, процессы и фреймворки, такие как MITRE ATT&CK, для оценки рисков приложений ИИ структурированным образом.

К концу этого курса вы сможете выявлять и использовать уязвимости в программах LLM, а также разрабатывать стратегии смягчения последствий и отчетности, соответствующие отраслевым стандартам.

Язык курса - Английский с русской аудиодорожкой.
Показать больше
 
Зарегистрируйтесь , чтобы посмотреть скрытый контент.
Поиск по тегу:
Теги
pentesting genai llm models securing large language models start tech academy udemy защита больших языковых моделей тестирование на проникновение моделей genai llm

Войдите или зарегистрируйтесь!

Учетная запись позволит вам участвовать в складчинах и оставлять комментарии

Регистрация

Создайте аккаунт. Это просто!

Вход

Вы уже зарегистрированы? Войдите.

Сверху