Home
» วิกิ
»
Microsoft ประกาศเครื่องมือใหม่ที่จะตรวจจับและแก้ไขเนื้อหาหลอนประสาทในผลลัพธ์ AI
Microsoft ประกาศเครื่องมือใหม่ที่จะตรวจจับและแก้ไขเนื้อหาหลอนประสาทในผลลัพธ์ AI
Azure AI Content Safety คือบริการ AI ของ Microsoft ที่ช่วยตรวจจับเนื้อหาที่สร้างโดย AI ที่เป็นอันตรายทั่วทั้งแอป บริการ และแพลตฟอร์มต่างๆ ยูทิลิตี้นี้ให้บริการ API ทั้งข้อความและรูปภาพ ช่วยให้นักพัฒนาสามารถระบุเนื้อหาที่ไม่ต้องการได้
Groundedness API ใน Azure AI Content Safety สามารถระบุได้ว่าการตอบสนองจากโมเดลภาษาขนาดใหญ่ขึ้นอยู่กับเอกสารต้นฉบับที่ผู้ใช้เลือกหรือไม่ เนื่องจากโมเดลภาษาขนาดใหญ่ในปัจจุบันอาจสร้างข้อมูลที่ไม่ถูกต้องหรือเป็นเท็จได้ (ข้อมูลที่ลวงตา) API จึงช่วยให้นักพัฒนาสามารถระบุเนื้อหาดังกล่าวในข้อมูลเอาต์พุตของ AI ได้
วันนี้ Microsoft ได้ประกาศการแสดงตัวอย่างของการแก้ไข ส่งผลให้ตอนนี้ นักพัฒนาสามารถตรวจจับและแก้ไขเนื้อหา "ลวงตา" ในข้อมูลเอาต์พุตของ AI ได้แบบเรียลไทม์ ทำให้มั่นใจได้ว่าผู้ใช้จะได้รับเนื้อหาที่สร้างขึ้นโดย AI ที่ถูกต้องตามข้อเท็จจริงเสมอ คุณสมบัตินี้ทำงานดังต่อไปนี้:
นักพัฒนาแอปสามารถเปิดใช้ความสามารถในการแก้ไขได้
เมื่อตรวจพบข้อมูลที่ไม่มีมูลความจริง คำขอใหม่จะถูกส่งไปยังโมเดล AI เพื่อแก้ไขข้อผิดพลาด
นอกเหนือจากฟีเจอร์การแก้ไขแล้ว Microsoft ยังประกาศการเปิดตัวรุ่นตัวอย่างสาธารณะของ Hybrid Azure AI Content Safety (AACS) อีกด้วย คุณสมบัตินี้ช่วยให้นักพัฒนาสามารถนำกลไกการรักษาความปลอดภัยเนื้อหาไปใช้บนคลาวด์และบนอุปกรณ์ได้ SDK ที่ฝังไว้ของ AACS ช่วยให้สามารถตรวจสอบความปลอดภัยของเนื้อหาแบบเรียลไทม์ได้โดยตรงบนอุปกรณ์ แม้ไม่มีการเชื่อมต่ออินเทอร์เน็ต
ในที่สุด Microsoft ได้ประกาศเปิดตัว Protected Materials Detection for Code ที่สามารถใช้กับแอปพลิเคชัน AI สร้างรหัส เพื่อตรวจจับว่า LLM กำลังสร้างรหัสที่ได้รับการป้องกันใดๆ หรือไม่ ก่อนหน้านี้ฟีเจอร์นี้มีให้บริการผ่าน Azure OpenAI Service เท่านั้น ปัจจุบัน Microsoft กำลังทำให้การตรวจจับวัสดุที่ได้รับการปกป้องสำหรับรหัสพร้อมให้ลูกค้าสามารถใช้งานร่วมกับโมเดล AI สร้างรหัสอื่นๆ ได้