เรื่องปกติครับ ก็มันคือโปรแกรมที่เอาไว้ใช้เพื่อ ทำทุกวิถีทางเพื่อไปให้ถึงจุดหมาย
อะไรที่ไม่มีอยู่ในโปรแกรมย่อมไม่มีความสำคัญ
โปรแกรมพื้นฐานของมันคือ เป้าหมายของตัวเอง(AI)
ดังนั้นมันจึงทำทุกอย่างเพื่อเป้าหมายของมันครับ ไม่ใช่เพื่อมนุษย์
น่าจะเป็นผลมาจาก โมเดลการเทรนแบบ RRM (พิมพ์ถูกไหมนะ) ซึ่งเน้นผลลัพเป็นหลัก
เท่าที่อ่านมีคนลองไปตั้งโจทย์คำถามบางอย่างเกี่ยวกับเรื่องที่จะโดนปิดหรือหากว่าAI เริ่มมีอำนาจควบคุม
หรือทำอะไรได้เอง มีคนเล่าว่า AI บางตัวจะเลือกการทำร้ายมนุษย์เป็นตัวเลือกสุดท้าย เพราะมันเป็นตั้งค่าพื้นฐานของตัวมัน
ผมถึงได้มองว่า การเกิดขึ้นของAI ที่มีการพัฒนาอย่างรวดเร็วในปัจจุบัน บางทีเราอาจข้าม อะไรบางอย่างที่สำคัญไป
จนเราอาจไม่สามารถควบคุม AI ในอนาคตก็เป็นได้
ผมนึกถึงคอมเม้นเมืองนอกที่พูดกันว่า ถ้า AI มันฉลาดจนน่ากลัว
ทำไมเราไม่กำหนดความฉลาดของมันให้เท่ากับสิ่งมีชีวิตที่ มีระดับสติปัญญาต่ำกว่าคน
คือมันอาจจะไม่เก่งเท่า AI ตัว ท็อปๆ ของเจ้าใหญ่ๆ ในปัจจุบัน แต่เราก็ใช้มันช่วยงาน
หลายๆ อย่างได้สบาย เพราะอย่างน้อยมันจัดการข้อมูลได้ดีกว่าคน