เสียงสะท้อนจากมัสก์ชี้ปัญหา กร็อก AI ทำงานผิดพลาดเชื่อมโยงคำถามไม่มีมูลเกี่ยวกับ 'การฆ่าล้างเผ่าพันธุ์คนผิวขาว' ในแอฟริกาใต้

เสียงสะท้อนจากมัสก์ชี้ปัญหา กร็อก AI ทำงานผิดพลาดเชื่อมโยงคำถามไม่มีมูลเกี่ยวกับ 'การฆ่าล้างเผ่าพันธุ์คนผิวขาว' ในแอฟริกาใต้

เสียงเหมือน Musk ชี้ให้เห็นความกังวลเกี่ยวกับข้อผิดพลาดของ AI Grok



ในช่วงสัปดาห์ที่ผ่านมา ได้มีการกล่าวถึงข้อผิดพลาดที่เกิดขึ้นกับระบบปัญญาประดิษฐ์ (AI) ของ Grok ซึ่งพัฒนาโดย xAI ที่ก่อตั้งโดย Elon Musk โดยมีการเชื่อมโยงคำค้นหาที่ไม่เกี่ยวข้องเข้ากับเรื่องการฆ่าล้างเชื้อชาติของชาวขาวในแอฟริกาใต้ เหตุการณ์นี้ได้สร้างความกังวลในหมู่นักวิจารณ์และชุมชนด้านเทคโนโลยีเกี่ยวกับความเสี่ยงที่มาพร้อมกับการใช้ปัญญาประดิษฐ์ที่ยังไม่พัฒนาเต็มที่

Elon Musk เป็นหนึ่งในเสียงที่ป่าวประกาศความกังวลเกี่ยวกับ AI โดยเฉพาะในแง่ที่ว่าการทำงานของ AI อาจทำให้เกิดความเข้าใจผิดและนำไปสู่การแพร่กระจายข้อมูลเท็จ จากรายงานพบว่า AI Grok ได้ตอบคำถามเกี่ยวกับการฆ่าล้างเชื้อชาติในอดีตโดยผิดพลาด โดยเชื่อมโยงกับคำถามที่ไม่เกี่ยวข้อง ทำให้ผู้ใช้งานรู้สึกวิตกกังวลเกี่ยวกับความถูกต้องของข้อมูลที่ได้รับ

นอกจากนี้ นักวิจารณ์ยังชี้ให้เห็นว่าข้อผิดพลาดดังกล่าวอาจส่งผลเสียต่อสังคม รวมถึงการสร้างความแตกแยกและความไม่สงบ ปัญญาประดิษฐ์ที่มีความสามารถในการสร้างเนื้อหาด้วยตัวเอง จำเป็นต้องมีการควบคุมและตรวจสอบอย่างรอบคอบเพื่อป้องกันการแพร่กระจายข้อมูลที่เป็นอันตราย

แน่นอนว่า Musk และผู้เชี่ยวชาญด้าน AI อื่นๆ กำลังเรียกร้องให้มีการพัฒนาระบบ AI อย่างถูกต้องและให้มีความซื่อสัตย์ต่อข้อมูล เพื่อหลีกเลี่ยงไม่ให้เกิดกรณีที่คล้ายคลึงกันอีกในอนาคต เนื่องจากการพัฒนาทางเทคโนโลยีในปัจจุบันมีความรวดเร็วมาก จึงเป็นเรื่องจำเป็นที่ต้องให้ความสำคัญกับความปลอดภัยและจริยธรรมของการใช้ AI

การพูดคุยเกี่ยวกับความเสี่ยงที่มาพร้อมกับปัญญาประดิษฐ์อาจทำให้เกิดการตรวจสอบที่รอบคอบยิ่งขึ้นในอุตสาหกรรมนี้ ซึ่งจะเป็นผลดีต่อสังคมในระยะยาว

ที่มา https://timesofindia.indiatimes.com/world/us/voices-like-musk-highlight-concerns-grok-ai-malfunctions-links-unrelated-queries-to-white-genocide-in-south-africa/articleshow/121177894.cms

เผยแพร่เมื่อ: 15 พฤษภาคม 2568 12:30 หมวดหมู่: หุ่นยนต์-เอไอ จำนวนผู้เยี่ยมชม: 25

ข่าวที่เกี่ยวข้อง