ในช่วงเวลาที่เทคโนโลยีปัญญาประดิษฐ์ก้าวไปข้างหน้าอย่างรวดเร็ว ผู้เชี่ยวชาญได้ออกมาเตือนเกี่ยวกับการใช้ระบบเช่น Gemini และ ChatGPT ในหุ่นยนต์ที่มีลักษณะคล้ายมนุษย์ โดยระบุว่าการใช้ AI เหล่านี้อาจนำไปสู่ความเสี่ยงที่ไม่สามารถควบคุมได้
ผู้เชี่ยวชาญที่มีประสบการณ์ในด้านนี้ได้กล่าวถึงสถานการณ์ที่อาจเกิดขึ้น โดยชี้ให้เห็นถึงความท้าทายในการพัฒนาหุ่นยนต์ที่สามารถทำงานในโลกจริงและมีปฏิสัมพันธ์กับมนุษย์ได้อย่างปลอดภัย และยังเน้นถึงผลกระทบที่อาจเกิดขึ้นจากการตัดสินใจของ AI ที่ไม่เหมาะสม
การสนทนาพูดถึงความตื่นตระหนกเกี่ยวกับหุ่นยนต์ที่มีความสามารถในการเรียนรู้และพัฒนาตนเองซึ่งอาจมีผลกระทบต่อความมั่นคงในสังคม นอกจากนี้นักวิจัยยังเตือนถึงความเสี่ยงในการใช้บุคคลควบคุมระบบ AI โดยเฉพาะเมื่อมีการพัฒนาอย่างรวดเร็ว
โดยรวมแล้ว ผู้เชี่ยวชาญจึงแนะนำว่าในขณะนี้ควรพิจารณาอย่างรอบคอบก่อนที่จะนำ AI ไปใช้ในหุ่นยนต์ที่คล้ายมนุษย์ เนื่องจากความเสี่ยงที่อาจเกิดขึ้นนั้นยิ่งใหญ่เกินกว่าจะมองข้ามได้