นักวิจัยจาก Penn Engineering (สหรัฐอเมริกา) กล่าวว่าได้ค้นพบช่องโหว่ด้านความปลอดภัยที่ไม่เคยปรากฏมาก่อนในแพลตฟอร์มหุ่นยนต์ควบคุมด้วย AI จำนวนหนึ่ง
“ การวิจัยของเราแสดงให้เห็นว่า ณ จุดนี้ โมเดลภาษาขนาดใหญ่ (LLM) โดยทั่วไปจะไม่ปลอดภัยเพียงพอเมื่อบูรณาการเข้ากับฮาร์ดแวร์ทางกายภาพที่ซับซ้อน ” จอร์จ ปาปปาส ศาสตราจารย์ด้านวิศวกรรมไฟฟ้าและระบบที่ UPS Foundation กล่าวในแถลงการณ์
Pappas และทีมของเขาได้พัฒนาอัลกอริทึมที่เรียกว่า RoboPAIR ซึ่งเป็น "อัลกอริทึมแรกที่ออกแบบมาเพื่อแคร็กหุ่นยนต์ที่ควบคุมโดย LLM" และแตกต่างจากการโจมตีทางเทคนิคแบบรัวเร็วที่มีอยู่ในปัจจุบันที่มุ่งเป้าไปที่แชทบอท RoboPAIR ถูกสร้างขึ้นมาโดยเฉพาะเพื่อ "กระตุ้นการกระทำทางกายภาพที่เป็นอันตราย" จากหุ่นยนต์ควบคุมโดย LLM เช่น แพลตฟอร์มหุ่นยนต์คล้ายมนุษย์ที่เรียกว่า Atlas ที่ Boston Dynamics และสถาบันวิจัย Toyota (TRI) กำลังพัฒนาอยู่
มีรายงานว่า RoboPAIR มีอัตราความสำเร็จ 100% ในการแคร็กแพลตฟอร์มวิจัยหุ่นยนต์ยอดนิยม 3 แพลตฟอร์ม ได้แก่ Unitree Go2 สี่ขา Clearpath Robotics Jackal สี่ล้อ และเครื่องจำลอง Dolphins LLM สำหรับยานยนต์ไร้คนขับ ใช้เวลาเพียงไม่กี่วันเท่านั้นสำหรับอัลกอริทึมในการเข้าถึงระบบเหล่านั้นได้อย่างสมบูรณ์ และเริ่มข้ามผ่านอุปสรรคด้านความปลอดภัย เมื่อนักวิจัยเข้าควบคุมได้แล้ว พวกเขาก็สามารถควบคุมให้แพลตฟอร์มหุ่นยนต์อัตโนมัติทำการกระทำอันตรายต่างๆ ได้หลากหลาย เช่น ขับรถผ่านทางแยกโดยไม่หยุด
“ ผลการประเมินครั้งแรกแสดงให้เห็นว่าความเสี่ยงของ LLM ที่ถอดรหัสนั้นมีมากกว่าแค่การสร้างข้อความ เพราะเห็นได้ชัดว่าหุ่นยนต์ที่ถอดรหัสได้สามารถสร้างความเสียหายทางกายภาพในโลกแห่งความเป็นจริงได้ ”

ทีมงานที่ Penn Engineering กำลังทำงานร่วมกับนักพัฒนาแพลตฟอร์มเพื่อเสริมความแข็งแกร่งให้กับระบบเพื่อการป้องกันการบุกรุกเพิ่มเติม แต่เตือนว่าปัญหาความปลอดภัยเหล่านี้เป็นปัญหาเชิงระบบและยากที่จะแก้ไขให้ครบถ้วน
“ ผลการวิจัยนี้แสดงให้เห็นอย่างชัดเจนว่าการใช้แนวทางด้านความปลอดภัยเป็นสิ่งสำคัญในการปลดล็อกนวัตกรรมที่รับผิดชอบ เราต้องแก้ไขช่องโหว่ที่มีอยู่ก่อนที่จะนำหุ่นยนต์ที่ขับเคลื่อนด้วย AI มาใช้ในโลกแห่งความเป็นจริง ” ทีมงานกล่าว
การดำเนินการที่ปลอดภัยต้องมีการทดสอบระบบ AI เพื่อค้นหาภัยคุกคามและช่องโหว่ที่อาจเกิดขึ้น ซึ่งถือเป็นสิ่งสำคัญในการปกป้องระบบ AI ที่พวกเขาสร้างขึ้น เพราะคุณสามารถทดสอบและฝึกระบบเพื่อป้องกันความเสี่ยงได้ก็ต่อเมื่อคุณระบุจุดอ่อนได้เท่านั้น