Adversarial Machine Learning

การเรียนรู้ของเครื่องแบบปฏิปักษ์: การก่อกวน และความทนทาน

เมื่อ machine learning เข้ามามีบทบาทในชีวิตจริงเป็นอย่างมากจนกระทั่งความผิดพลาดจากแบบจำลองอาจนำไปสู่ความเสียหายอย่างใหญ่หลวงหรือกระทั่งนำไปสู่การเสียชีวิต การสร้างแบบจำลองทาง machine learning จะคำนึงถึงแต่ความแม่นยำในการตัดสินใจไม่ได้อีกแล้ว เราจำเป็นต้องสนใจ ความทนทาน (robustness) ของแบบจำลองด้วย ซึ่งหมายถึงความสามารถในการตัดสินใจที่มั่นคงเมื่อข้อมูลที่รับเข้ามามีการปนเปื้อนด้วย noise ที่เกิดจากสภาพแวดล้อมหรือแม้กระทั่ง noise ที่เกิดจาก การก่อกวน (perturbation) จากผู้ประสงค์ร้าย

บทความชุดนี้บันทึกความรู้พื้นฐานทางทฤษฎีที่เกี่ยวข้องกับการก่อกวนบนแบบจำลองทาง machine learning ที่ได้รับความนิยมในปัจจุบันเช่น deep learning, การเพิ่มความทนทานให้กับแบบจำลองเพื่อป้องกันการถูกก่อกวน รวมถึงความรู้ทางทฤษฎีในมุมต่าง ๆ ที่เกี่ยวข้องกับความทนทานของแบบจำลองเหล่านี้ โดยเนื้อหาในช่วงแรกอ้างอิงจาก Adversarial Robustness - Theory and Practice ของ Zico Kolter และ Aleksander Madry

บทนำ

  1. แบบจำลอง deep learning พอสังเขป
  2. การสร้าง adversarial example
  3. การโจมตีแบบกำหนดเป้าหมาย
  4. Adversarial robustness
  5. การสร้าง robust classifier

การโจมตีและการป้องกัน

  1. แบบจำลอง Linear binary classification
  2. Adversarial linear binary classification
  3. Fast Gradient Sign Method
  4. Projected Gradient Descent
  5. Adversarial training

Robustness Certification

  1. การสร้าง robustness certificate
  2. Linear programming relaxation
  3. Quadratic programming
  4. Semidefinite programming relaxation

Robust Features

  1. คุณสมบัติของ adversarial example
  2. Useful features
  3. Robust features และ weak features
  4. การเทรนแบบจำลองด้วย robust features
  5. ความสามารถของ weak features