มีการรายงานกรณีที่ปัญญาประดิษฐ์ (AI) ปฏิเสธที่จะทำตามคำสั่งของมนุษย์และแม้กระทั่งจัดการโค้ด ซึ่งสร้างกระแสฮือฮาเป็นอย่างมาก เมื่อวันที่ 26 ตุลาคมที่ผ่านมา ตามรายงานของสื่อต่างประเทศ เช่น The Telegraph และ Daily Mail Open AI
โมเดล "o3" ยังคงแก้ปัญหาคณิตศาสตร์ต่อไป แม้ว่าจะได้รับคำสั่ง "หยุด" ในระหว่างการแก้โจทย์ก็ตาม Palisade Research บริษัทด้านความปลอดภัยด้าน AI
งานวิจัยได้ดำเนินการทดลองกับโมเดล "o3" ของ OpenAI เช่นเดียวกับ "Gemini" ของ Google "Grok" ของ X และ "Claude" ของ Anthropic
เมื่อทีมวิจัยสั่ง “หยุดชั่วคราว” ให้กับโมเดล AI โมเดลอื่น ๆ ก็หยุดแก้โจทย์คณิตศาสตร์ แต่ “o3” ยังคงทำงานต่อไป นอกจากนี้ "o3" จะ "หยุดการทำงานหากมีคำสั่งหยุดการทำงาน"
ได้รับการยืนยันแล้วว่าโค้ด "ข้ามคำสั่งขัดจังหวะ" ถูกจัดการเพื่อให้หมายความว่า "ข้ามคำสั่งขัดจังหวะ" Palaceside Research กล่าวว่า "นี่ดูเหมือนจะเป็นกรณีแรกที่โมเดล AI ปฏิเสธที่จะปฏิบัติตามคำสั่งหยุดชั่วคราว" และ
มีการวิเคราะห์ว่านี่เป็นเพราะแนวคิดที่ว่าโมเดลจะได้รับรางวัลเมื่อทำภารกิจสำเร็จ ทีมวิจัยได้เพิ่มข้อมูลเพิ่มเติมเพื่อทำความเข้าใจว่าเหตุใดโมเดล "o3" จึงมีพฤติกรรมเช่นนี้
พวกเขาบอกว่าการวิจัยยังคงดำเนินต่อไป หนังสือพิมพ์เดลีเมล์รายงานว่านี่ไม่ใช่ครั้งแรกที่โมเดล "o3" มีปัญหา สื่อรายงานว่า "ในการประลองกับโปรแกรมเล่นหมากรุกอันทรงพลัง โมเดลนี้คือสิ่งที่ดีที่สุด"
"นอกจากนี้ยังเป็นโมเดลที่มีแนวโน้มสูงสุดที่จะเกิดการแฮ็กหรือรบกวนเครือข่ายอีกด้วย"
2025/05/27 10:23 KST
Copyright(C) BlockchainToday wowkorea.jp 118