Google เผย แฮกเกอร์ป้อนคำสั่ง Gemini กว่า 100,000 ครั้ง พยายามโคลน AI แชทบอท

ยักษ์ใหญ่ด้านเทคโนโลยี Google ได้เปิดเผยถึงภัยคุกคามล่าสุดต่อผลิตภัณฑ์ของตน โดยระบุว่ามีกลุ่มนักโจมตีที่ขับเคลื่อนด้วยแรงจูงใจทางการค้าได้พยายามที่จะ 'ดึงข้อมูลโมเดล' (model extraction) จาก Gemini AI แชทบอทของบริษัท การกระทำดังกล่าวถูกจัดว่าเป็นอาชญากรรมการขโมยทรัพย์สินทางปัญญา ซึ่งพบว่ามีหนึ่งในเซสชันการโจมตีได้ป้อนคำสั่งไปยัง Gemini กว่า 100,000 ครั้ง ในภาษาที่หลากหลาย ไม่ใช่ภาษาอังกฤษ เพื่อเก็บรวบรวมการตอบสนองและคาดว่าจะนำไปใช้ในการฝึกฝน AI ลอกเลียนแบบที่มีต้นทุนต่ำกว่า

อย่างไรก็ตาม จุดยืนของ Google ในเรื่องนี้กลับถูกตั้งคำถาม เนื่องจากบริษัทยักษ์ใหญ่รายนี้ก็เคยถูกวิพากษ์วิจารณ์เกี่ยวกับการสร้างโมเดลภาษาขนาดใหญ่ (LLM) จากข้อมูลที่เก็บรวบรวมจากอินเทอร์เน็ตโดยไม่ได้รับอนุญาต นอกจากนี้ Google ยังเคยเผชิญกับข้อกล่าวหาว่าทีมพัฒนา Bard ซึ่งเป็น AI แชทบอทของตน ได้ใช้เอาต์พุตจาก ChatGPT ที่ได้จาก ShareGPT ซึ่งเป็นเว็บไซต์สาธารณะที่ผู้ใช้แบ่งปันบทสนทนาแชทบอท เพื่อช่วยในการฝึกฝนโมเดลของตนเอง ซึ่ง Jacob Devlin นักวิจัย AI อาวุโสของ Google และผู้สร้างโมเดลภาษา BERT ได้เตือนผู้บริหารว่าการกระทำนี้ละเมิดข้อกำหนดในการให้บริการของ OpenAI ก่อนที่เขาจะลาออกและเข้าร่วมงานกับ OpenAI แม้ Google จะปฏิเสธข้อกล่าวหานี้ แต่ก็มีรายงานว่าได้หยุดใช้ข้อมูลดังกล่าวไปแล้ว


🏷️ หมวดหมู่: AI, Biz & IT, Google, AI language models, AI security, ChatGPT, chatgtp, deepseek, Distillation, gemini, google, Google Gemini, large language models, LLMs, machine learning, openai

🔗 อ่านบทความฉบับเต็ม: Arstechnica