เกิดเรื่องสุดฮาเมื่อ AI Overviews ของ Google ดันไปให้ความหมายแบบผิดๆ แถมยังตลกสุดๆ กับสำนวนที่ผู้เขียนบทความสร้างขึ้นมาเอง โดยผู้เขียนได้ลองค้นหาสำนวนที่ไม่มีอยู่จริงอย่าง "butter up a badger" และ AI Overviews กลับให้ความหมายว่า "การทำให้ใครบางคนพอใจด้วยของขวัญหรือคำชม เพื่อให้พวกเขาทำในสิ่งที่คุณต้องการ" พร้อมทั้งยกตัวอย่างสถานการณ์ที่ดูไม่สมเหตุสมผลเข้าไปอีก
ผู้เขียนระบุว่า ความผิดพลาดนี้แสดงให้เห็นถึงปัญหาของ AI Overviews ที่มักจะนำข้อมูลจากแหล่งต่างๆ มาปะติดปะต่อกันโดยไม่ได้ตรวจสอบความถูกต้องอย่างถี่ถ้วน ทำให้เกิดการให้ข้อมูลที่ผิดพลาดและไร้สาระได้
นอกจากนี้ ผู้เขียนยังได้ลองป้อนสำนวนแปลกๆ อื่นๆ เข้าไป เช่น "teach a fish to climb a tree" ซึ่ง AI Overviews ก็ยังคงพยายามให้ความหมายและยกตัวอย่างประกอบ แม้ว่าจะเป็นสิ่งที่ขัดกับสามัญสำนึกอย่างชัดเจน
เหตุการณ์นี้เป็นเครื่องเตือนใจว่า แม้ AI จะมีความสามารถในการประมวลผลข้อมูลจำนวนมาก แต่ก็ยังต้องการการตรวจสอบและปรับปรุงอย่างต่อเนื่อง เพื่อป้องกันการให้ข้อมูลที่ผิดพลาดและสร้างความเข้าใจผิดให้กับผู้ใช้งาน
อย่างไรก็ตาม ผู้เขียนก็มองว่า ความผิดพลาดที่เกิดขึ้นนี้เป็นเรื่องตลกขบขัน และแสดงให้เห็นถึงความ "สร้างสรรค์" ของ AI ในการตีความสิ่งที่ไม่มีอยู่จริง