Khóa học Advanced AI Red Teaming AI-300

OffSec chính thức mở rộng sang lĩnh vực AI Security với chứng chỉ mới mang tên OSAI (OffSec AI Red Teamer).

OffSec (Offensive Security) – đơn vị đứng sau các chứng chỉ nổi tiếng như OSCP – đã chính thức mở rộng sang lĩnh vực AI Security với chứng chỉ mới mang tên OSAI (OffSec AI Red Teamer).

Chứng chỉ này đi kèm với khóa học AI-300: Advanced AI Red Teaming, đánh dấu bước chuyển mình quan trọng của OffSec khi đưa phương pháp offensive security (tấn công chủ động) vào môi trường AI hiện đại. OSAI được thiết kế để:

  • Đáp ứng nhu cầu bảo mật trong kỷ nguyên AI và LLM
  • Kiểm chứng năng lực thực chiến (hands-on) của học viên
  • Áp dụng phương pháp red teaming vào hệ thống AI thực tế

Đặc biệt, sau khi hoàn thành khóa học và vượt qua kỳ thi, học viên sẽ nhận được chứng chỉ OffSec AI Red Teamer.

Giới thiệu tổng quan về khóa học AI-300

AI-300: Advanced AI Red Teaming là khóa học nâng cao tập trung vào việc khai thác và đánh giá bảo mật các hệ thống tích hợp AI.

Đặc điểm chính:

  • Thuộc cấp độ Advanced (nâng cao) trong hệ thống khóa học của OffSec
  • Dành cho: các chuyên gia thuộc nhóm tấn công (Red Team), các chuyên gia kiểm thử xâm nhập và các kỹ sư AI muốn chuyên sâu về lĩnh vực an ninh mạng.
  • Nội dung mang tính thực chiến cao (hands-on labs)
  • Khóa học kết thúc bằng một kỳ thi red team mô phỏng thực tế.

Hoàn thành khóa học AI-300 và kỳ thi chứng chỉ OSAI, học viên sẽ có khả năng:

  • Hiểu và đánh giá bảo mật hệ thống AI:
  • Nắm được attack surface của hệ thống AI/ML/LLM
  • Hiểu các rủi ro đặc thù của AI (prompt injection, model abuse, data poisoning…)

Thực hiện AI Red Teaming

  • Xây dựng và triển khai kịch bản tấn công vào hệ thống AI
  • Mô phỏng các cuộc tấn công thực tế vào pipeline AI

Khai thác và vượt qua (bypass) hệ thống AI

  • Tìm và khai thác lỗ hổng trong: các ứng dụng LLM, AI APIs, các hệ thống chạy suy luận mô hình (Model inference systems)

Xây dựng phương pháp luận offensive cho AI

  • Áp dụng tư duy “Try Harder” của OffSec vào AI Security
  • Xây dựng quy trình làm việc của Team tấn công

Khóa OSAI – OffSec AI Red Teamer phù hợp với:

  • Chuyên gia an ninh mạng muốn mở rộng sang lĩnh vực AI Security / AI Red Teaming
  • Pentester, Red Teamer đã có kinh nghiệm kiểm thử xâm nhập và muốn khai thác các hệ thống AI
  • AI/ML Engineer muốn hiểu rõ các lỗ hổng bảo mật trong mô hình AI
  • Security Engineer, SOC Analyst quan tâm đến việc phòng thủ và phát hiện tấn công liên quan đến AI
  • Những cá nhân định hướng trở thành AI Security Specialist hoặc AI Red Team Lead

Để học hiệu quả khóa này, học viên nên có:

  • Kiến thức nền tảng về Cybersecurity (network, system, web security)
  • Kinh nghiệm thực hành với Pentest / Red Teaming (tương đương OSCP là lợi thế)
  • Hiểu biết cơ bản về AI/ML (mô hình học máy, LLM là một lợi thế nhưng không bắt buộc quá sâu)
  • Kỹ năng sử dụng Linux, Python và các công cụ bảo mật phổ biến
  • Tư duy phân tích, khai thác và đánh giá rủi ro hệ thống

Khóa học AI-300: Advanced AI Red Teaming được xây dựng theo hướng thực chiến, bao phủ toàn bộ quá trình tấn công và đánh giá bảo mật hệ thống AI hiện đại, từ giai đoạn trinh sát, khai thác đến triển khai hoạt động kiểm thử xâm nhập mô phỏng hoàn chỉnh.

  • Giới thiệu về hoạt động Red Team đối với hệ thống AI

Hiểu cách các hệ thống trí tuệ nhân tạo (AI) làm thay đổi bề mặt tấn công truyền thống. Module này giới thiệu các khái niệm cốt lõi về an ninh mạng trong AI, giải thích cách các đối tượng tấn công nhắm mục tiêu vào các môi trường tích hợp AI, đồng thời liên kết các hình thức tấn công AI với vòng đời hoạt động của red team.

 

  • Trinh sát mục tiêu AI

Học cách xác định và lập bản đồ các ứng dụng AI, các thành phần machine learning và hạ tầng mô hình trong môi trường mục tiêu. Học viên sẽ thực hành các kỹ thuật trinh sát nhằm phát hiện tài sản AI, các thành phần phụ thuộc (dependencies) và các dịch vụ đang được phơi bày (exposed services) mà không làm cảnh báo hệ thống phòng thủ.

  • Tấn công các AI Agent

Khám phá các kỹ thuật tấn công nhằm thao túng AI agent thông qua việc lạm dụng prompt, hệ thống bộ nhớ và các cơ chế tích hợp công cụ. Module này minh họa cách kẻ tấn công có thể tác động và điều khiển các ứng dụng AI tự động trong khi vẫn duy trì tính ẩn mình (stealth).

 

  • Tấn công hệ thống đa tác tử và giao thức A2A

Phân tích kiến trúc của các hệ thống AI đa tác tử và tìm hiểu cách kẻ tấn công khai thác mối quan hệ tin cậy giữa các agent. Học viên sẽ thực hành các kỹ thuật như thao túng thông điệp, giả mạo agent và phá vỡ quy trình hoạt động (workflow).

 

  • Khai thác pipeline RAG (Retrieval-Augmented Generation)

Tìm hiểu cách kẻ tấn công xâm nhập hệ thống RAG bằng cách đầu độc nguồn tri thức (knowledge sources) và thao túng lớp truy xuất dữ liệu nhằm kiểm soát đầu ra của mô hình AI.

 

  • Tấn công Embeddings

Hiểu vai trò của embeddings trong hệ thống machine learning và thực hiện các kỹ thuật tấn công như đảo ngược embedding (embedding inversion) và trích xuất thông tin nhằm thu thập dữ liệu nhạy cảm từ mô hình AI.

 

  • Tấn công Model Context Protocol và các bề mặt tích hợp công cụ

Khám phá cách các lớp điều phối (orchestration layer) và framework tích hợp công cụ AI có thể bị khai thác để leo thang đặc quyền hoặc thực thi các hành vi ngoài ý muốn trong hệ thống AI.

 

  • Tấn công chuỗi cung ứng AI

Tìm hiểu cách kẻ tấn công nhắm vào chuỗi cung ứng AI, bao gồm datasets, model weights, adapters và các thư viện phụ thuộc. Học viên sẽ thực hành các kỹ thuật chèn thành phần độc hại vào hệ thống AI trước khi được triển khai.

 

  • Khai thác hạ tầng và môi trường triển khai AI

Xác định và khai thác các lỗ hổng trong hạ tầng AI, bao gồm nền tảng AI trên cloud, máy chủ mô hình (model servers) và các workload machine learning chạy trong container.

 

  • Phân tích mối đe dọa cho hệ thống tích hợp AI

Xây dựng chiến lược xác định các tài sản AI quan trọng, ranh giới tin cậy (trust boundaries) và các đường tấn công tiềm năng trong môi trường AI phức tạp.

 

  • Dự án tổng hợp Red Team

Áp dụng toàn bộ kỹ thuật đã học trong một chiến dịch red team hoàn chỉnh trên môi trường AI doanh nghiệp thực tế. Mô phỏng cách kẻ tấn công xâm nhập và khai thác các hệ thống AI đang vận hành trong production.

Bạn vui lòng liên hệ với Tư vấn viên qua mục chat trên website hoặc gọi đến số 024 3771 0668 để được tư vấn chi tiết về lộ trình học tập và chi phí! 

Top khoá học

				
					
				
			

Đánh giá của đối tác & học viên

Các chuyên gia và sinh viên công nghệ tiềm năng bước ra từ iPMAC nói gì về khóa học?

Tìm kiếm khóa học

Nhận tư vấn

(024) 3771 0668

ĐĂNG KÝ HỌC