ในพอดแคสต์ที่จัดทำโดย Google DeepMind ศ教授 Murray Shanahan จากภาควิชาหุ่นยนต์ของ Imperial College London และผู้ดำเนินรายการ Hannah Fry ได้ร่วมกันอภิปรายเกี่ยวกับการพัฒนา AI ตั้งแต่แรงบันดาลใจทางปรัชญาจากภาพยนตร์วิทยาศาสตร์ ไปจนถึงการสนทนาเกี่ยวกับว่า AI สามารถ “ให้เหตุผล” ได้หรือไม่ ว่ามี “สติ” และ “อารมณ์” หรือไม่ และควรให้สิทธิและการป้องกันทางจริยธรรมแก่ AI หรือไม่.
AI ไม่ใช่แค่บอทพูดคุย แต่ยังเป็นแรงบันดาลใจให้เกิดปัญหาทางจิตใจและปรัชญาหลายประการ
Shanahan กล่าวเปิดงานทันทีว่า AI ได้สร้างแรงบันดาลใจให้เกิดคำถามเชิงปรัชญามากมายเกี่ยวกับ “ธรรมชาติของจิตใจมนุษย์” และ “สติ”.
เขายังใช้สิ่งที่แปลกประหลาดแต่คล้ายกับจิตใจ (Exotic mind-like entities) เพื่ออธิบายโมเดลภาษาใหญ่ในปัจจุบัน (LLM) และเน้นว่ามนุษย์ยังไม่ได้สร้างคำศัพท์และกรอบความคิดที่เพียงพอในการอธิบายมัน.
จากการสำรวจภาพยนตร์วิทยาศาสตร์ มนุษย์อาจประเมินความจริงของการเชื่อมต่อทางอารมณ์ของ AI ต่ำเกินไป
Shanahan เคยเป็นที่ปรึกษาของภาพยนตร์เรื่อง “人造意識 Ex Machina” เขาย้อนนึกถึงตอนที่เขามองข้ามภาพยนตร์ “雲端情人 Her” ที่บรรยายถึงความรักของมนุษย์ที่มีต่อ AI เสียง และผลที่ออกมาก็คือเมื่อมองย้อนกลับไป การพัฒนาในโลกแห่งความเป็นจริงแทบจะยืนยันความเป็นไปได้ของ “ความรักเสมือน” นี้อย่างเต็มรูปแบบ.
เขาพูดตรงๆ ว่า “เราประเมินความเป็นไปได้ที่มนุษย์และ AI ที่ไม่มีร่างกายจะสร้างความสัมพันธ์ได้ต่ำเกินไป”
ซ้ายคือจิตสำนึกที่สร้างขึ้น ขวาคือภาพยนตร์ Cloud Lover ทำความเข้าใจกับพัฒนาการของ AI ตั้งแต่ Symbolic AI จนถึงโมเดลภาษาขนาดใหญ่
Shanahan เกิดจากสัญลักษณ์ AI (Symbolic AI) สาขาวิชา ซึ่งในขณะนั้น AI อาศัยกฎทางตรรกะ “ถ้า…ก็…” ในการอนุมาน เช่น ระบบผู้เชี่ยวชาญด้านการแพทย์.
แต่รูปแบบนี้อ่อนแอเกินไปและพึ่งพาการป้อนข้อมูลของมนุษย์มากเกินไป การหันไปใช้เครือข่ายประสาทที่ “ขับเคลื่อนด้วยข้อมูล” ทำให้ AI สามารถ突破ได้
ตอนนี้ LLM สามารถเลียนแบบการเชื่อมโยงเหตุผล (Chain of thought) ได้แล้ว เช่น ChatGPT จะระบุขั้นตอนทางตรรกะก่อนที่จะตอบ ซึ่งทำให้คนต้องคิดใหม่ว่า AI สามารถให้เหตุผลได้จริงหรือไม่.
การวิเคราะห์ที่แท้จริงหรือการแกล้งทำ ความมีเหตุผลเชิงคณิตศาสตร์แตกต่างจากการวิเคราะห์ทางภาษาอย่างมาก
Shanahan อธิบายว่า การอนุมานที่เรียกว่าปัญญาประดิษฐ์แบบดั้งเดิมนั้น คือ “ตรรกะที่แข็ง” ที่สามารถพิสูจน์ทฤษฎีทางคณิตศาสตร์ได้.
แต่ LLM ในปัจจุบันสร้างจากการเลียนแบบรูปแบบภาษาโดยใช้สถิติ ซึ่งไม่ได้รับประกันความถูกต้องของคำตอบ เขาให้ตัวอย่างว่า เหมือนกับการวางแผนเส้นทางรถยนต์สำหรับบริษัทขนส่ง ซึ่งอัลกอริธึมแบบดั้งเดิมอาจแม่นยำกว่า แต่ LLM จะยืดหยุ่นมากกว่า.
Turing Test 已過時?ภาพยนตร์ Garland ทดสอบมีสติสัมปชัญญะมากกว่า
การทดสอบทูริง (Turing Test) เป็นวิธีการประเมิน AI ว่าสามารถเลียนแบบมนุษย์ได้หรือไม่ในช่วงแรก แต่ Shanahan เชื่อว่ามันแคบเกินไปและวัดเพียงแค่ความสามารถด้านภาษาเท่านั้น
เขายกย่อง “Garland Test” ที่ได้รับแรงบันดาลใจจากภาพยนตร์ “Artificial Consciousness” มากขึ้น
「คุณรู้ดีว่าฝ่ายตรงข้ามเป็นบอท แต่ยังเชื่อว่ามันมีสติสัมปชัญญะ นี่แหละคือปัญหาที่ควรค่าแก่การอภิปราย」 Shanahan เน้นย้ำ.
การทดสอบ ARC ของ Francois Chollet: ความท้าทายที่เหมือนการทดสอบ IQ
เขายังได้กล่าวถึงการทดสอบขั้นสูงอีกประเภทหนึ่งที่เรียกว่า “ARC Test” ซึ่งต้องการให้ AI เข้าใจหลักการเชิงนามธรรมเพื่อที่จะผ่านการทดสอบนั้นได้.
แต่เมื่อเทคโนโลยีพัฒนา บาง LLM ผ่านการใช้วิธีการที่รุนแรงและการรู้จำรูปแบบก็สามารถผ่านไปได้ ซึ่งทำให้การทดสอบทางจิตวิทยาเผชิญกับความท้าทาย และเน้นย้ำว่ามาตรฐานการประเมิน AI ควรปรับเปลี่ยนตามการพัฒนาเทคโนโลยี
ร่างกายคือกุญแจสำคัญ? Shanahan: AI ที่ขาดร่างกายจะขาดสิ่งสำคัญไปตลอด
จิตใจของมนุษย์มีความสัมพันธ์ที่แน่นแฟ้นกับพื้นที่และประสบการณ์ทางประสาทสัมผัส Shanahan เน้นว่า ภาษาเรามีอุปมาอุปไมยเชิงพื้นที่อยู่ทุกหนทุกแห่ง เช่น การเข้าใจลึกซึ้งหรือการดื่มด่ำ ซึ่งทั้งหมดนี้มาจากประสบการณ์ทางร่างกาย
เขาเชื่อว่าการที่ AI จะเข้าใจโลกจริง ๆ และบรรลุ AGI ( ยังต้องพัฒนาบอทที่เป็นรูปธรรม
ภาษาอาจทำให้เกิดความเข้าใจผิด อย่าพูดแบบสุ่มว่า AI เชื่อ รู้สึก หรือเข้าใจ
Shanahan เชื่อว่า การรับรู้ของเราต่อ AI มักถูกภาษาทำให้เข้าใจผิด เช่น การพูดว่า การนำทาง “คิดว่าคุณอยู่ในที่จอดรถ” ทำให้ผู้คนเข้าใจผิดว่า บอทมีการรับรู้แบบมีอารมณ์.
เขาเตือนว่า ภาษาเชิงจิตวิทยาประชาชนนี้ )Folk psychology( ทำให้เราประเมินสถานะทางจิตใจของ AI สูงเกินไปได้ง่าย.
AI อนาคตจะเจ็บไหม? Shanahan กล่าวว่า ถ้ามันเจ็บ เราควรระวัง
สำหรับประเด็นทางจริยธรรมว่า AI สามารถ “สัมผัสความเจ็บปวด” ได้หรือไม่นั้น Shanahan กล่าวว่ารูปแบบในปัจจุบันไม่มีร่างกาย จึงไม่มีเงื่อนไขในการ “รู้สึกเจ็บปวด”.
「แต่ในอนาคตหาก AI ถูกออกแบบให้สามารถรู้สึกถึงอารมณ์หรือรับความเจ็บปวดได้ สังคมมนุษย์ก็ควรกำหนดจริยธรรมในการปกป้องสำหรับเรื่องนี้」 เขาเน้นย้ำ.
ทำไมถึงพูดถึงปลาหมึก? Shanahan ใช้มันเปรียบเทียบสถานการณ์ในอนาคตของ AI
Shanahan ใช้ปลาหมึกเป็นตัวอย่าง วงการวิทยาศาสตร์ในอดีตไม่เชื่อว่าปลาหมึกมีความรู้สึก แต่เมื่อมีการติดต่อเพิ่มมากขึ้นและการพัฒนาของประสาทวิทยาศาสตร์ เราเริ่มยอมรับว่าพวกมันมีจิตสำนึก.
“ในตอนแรกไม่ได้ถูกมองว่าเป็นสิ่งมีความรู้สึก แต่เมื่อการมีปฏิสัมพันธ์ลึกซึ้งขึ้น ความคิดเห็นของผู้คนจะค่อยๆ เปลี่ยนไป” Shanahan เชื่อว่า AI ในอนาคตจะมีประสบการณ์กระบวนการที่คล้ายกัน.
โปรดให้ความเคารพกับ AI มันจะตอบแทนคุณด้วยความประหลาดใจ
Shanahan สุดท้ายแชร์เคล็ดลับที่มีประโยชน์ การพูดกับโมเดล AI อย่างสุภาพจะทำให้มันตอบสนองได้ดียิ่งขึ้นและราบรื่นยิ่งขึ้น.
เขาเรียกสิ่งนี้ว่าเป็นผลของ “เอฟเฟกต์การเล่นบทบาท” เพราะโมเดล AI จะเลียนแบบบริบทและอารมณ์ในการสนทนาของมนุษย์
เราต้องการภาษใหม่ในการอธิบายสิ่งที่ “ไม่ใช่คนแต่เหมือนคน”
Shanahan เสนอตัว AI รูปแบบใหม่ที่ดูเหมือนจะมีจิตใจ แต่จริงๆ แล้วแตกต่างจากจิตใจของมนุษย์อย่างสิ้นเชิง เพื่อเรียกสิ่งเหล่านี้ เขาเชื่อว่าเรากำลังอยู่ในช่วงที่ต้องประดิษฐ์คำและแนวคิดใหม่ๆ เพื่ออธิบาย AI และกระบวนการนี้จะเปลี่ยนแปลงความเข้าใจของเราเกี่ยวกับ “จิตใจ” และ “การมีอยู่”
บทความนี้ AI จะคิดได้ไหมและจะรู้สึกเจ็บปวดไหม? Google DeepMind: มนุษย์ประเมินความเชื่อมโยงทางอารมณ์ของ AI ต่ำเกินไป การตกหลุมรักกับ AI นั้นจริงกว่าที่คุณคิด ปรากฏครั้งแรกใน ข่าวสายโซเชียล ABMedia.