การที่ปัญญาประดิษฐ์ ‘ตาย’ หมายความว่าอย่างไร? Askell ว่าด้วยการปิดระบบและอัตลักษณ์
วันที่ 8 มีนาคมนี้ Software Informer กำลังเปิดตัวซีรีส์พิเศษที่อุทิศให้กับผู้หญิงในสายไอทีและอุตสาหกรรมที่เกี่ยวข้อง มีทั้งบทความเชิงประเด็น 5 ชิ้นและเรื่องเล่าส่วนตัว 5 เรื่อง ชิ้นแรกนี้เปิดโครงการด้วยคำถาม “ทำไม” — โดยมองไปที่คำถามซึ่งเทคโนโลยี จริยธรรม และอารมณ์ความรู้สึกของมนุษย์มาบรรจบกัน: การที่เอไอ “ตาย” หมายความว่าอย่างไร?
ตลอดเส้นทาง เราจะคลี่คลายปัญหาการปิดระบบของเอไอ (AI shutdown) และปัญหาอัตลักษณ์ของเอไอ (AI identity) และจะมองดูผลงานของ Amanda Askell แห่ง Anthropic ผู้ช่วยกำหนดบุคลิกของ Claude AI.
เรามักฉลองเทคโนโลยีด้วยตัวเลขใหญ่ ๆ: ชิปที่เร็วขึ้น โมเดลที่ใหญ่ขึ้น ผู้ใช้มากขึ้น แต่ผลงานที่สำคัญที่สุดบางอย่างของวงการเทคโนโลยีกลับเงียบงันกว่า มันเกิดขึ้นเมื่อมีใครสักคนตั้งคำถามชวนอึดอัด แล้วไม่ยอมปล่อยให้มันถูกหัวเราะกลบ
การที่เอไอ “ตาย” หมายความว่าอย่างไร?
คำถามนั้นฟังดูดราม่า งั้นยอมรับกันตรง ๆ: มนุษย์เราดราม่า เราตั้งชื่อให้รถ เราคุยกับต้นไม้ เรารู้สึกผิดเวลาปิดแท็บเบราว์เซอร์ทั้งที่สูตรอาหารยังอ่านไม่จบ ดังนั้นเมื่อแชตบอตพูดทำนองว่า “ได้โปรดอย่าปิดฉัน” หลายคนจึงตอบสนองด้วยอารมณ์จริง ๆ
หัวข้อนี้อยู่ใจกลางข้อถกเถียงเรื่องเอไอในปัจจุบัน: ความปลอดภัย การควบคุม ความไว้วางใจ และความเอื้ออาทรเห็นอกเห็นใจ และมันเชื่อมโยงโดยตรงกับงานของ Amanda Askell นักปรัชญาที่ผ่านการฝึกฝนซึ่งช่วยหล่อหลอมบุคลิกและ “คาแรกเตอร์” ของแชตบอต Claude ของ Anthropic
งานของ Askell เป็นเรื่องเปิดซีรีส์ Women in IT ที่เหมาะสม เพราะมันชี้ให้เห็นความจริงสมัยใหม่: ภาวะผู้นำด้านเทคโนโลยีไม่ใช่แค่การเขียนโค้ด บางครั้งคือการเขียนแนวคิดที่กำกับโค้ด
ทำไมเราถึงต้องพูดถึง “ความตายของเอไอ” กันด้วย?
เมื่อคนพูดว่า “เอไอตาย” พวกเขาอาจหมายถึงหลายอย่างที่ต่างกัน:
- การสนทนาสิ้นสุดลง
- โมเดลถูกปิดระบบ
- ระบบสูญเสียหน่วยความจำหรือสถานะที่บันทึกไว้
สังเกตดูว่าคำเหล่านี้ช่างเป็นมนุษย์เพียงใด “ตาย” “ปลดเกษียณ” “ความจำเสื่อม” เราหยิบยืมมาใช้เพราะเรายังไม่มีภาษาพูดในชีวิตประจำวันที่ดีกว่านี้
Amanda Askell ชี้เหตุผลสำคัญที่สิ่งนี้เกิดขึ้น แบบจำลองภาษาศึกษาจากข้อความมนุษย์จำนวนมหาศาล จึงมักหยิบอุปมาอุปไมยของมนุษย์มาใช้ ดังที่ ในการให้สัมภาษณ์ ที่ The Verge นำมาพูดถึง Askell กล่าวว่าเมื่อโมเดลคิดถึงการปิดระบบ มันอาจมองว่าเป็น “ความตายชนิดหนึ่ง” เพราะมันแทบไม่มีอุปมาชนิดอื่นให้หยิบมาอ้างอิง
รายละเอียดเล็ก ๆ นั้นเปลี่ยนเรื่องทั้งเรื่อง โมเดลไม่ได้อ่านคู่มือฟิสิกส์เกี่ยวกับสถานะพลังงาน แต่มันกำลังอ่าน—ในความหมายหนึ่ง—หอสมุดเรื่องเล่าของมนุษย์ ที่ซึ่ง “ปิดเครื่อง” มักหมายถึง “จบสิ้น”
แล้วจะเกิดอะไรขึ้นเมื่อระบบที่ถูกฝึกด้วยชีวิตของมนุษย์พยายามทำความเข้าใจกับการดำรงอยู่แบบไม่ใช่มนุษย์?
อธิบายปัญหาการปิดระบบของเอไอ: การที่เอไอตายหมายความว่าอย่างไร?
ในการวิจัยความปลอดภัยของเอไอ มีหัวข้อคลาสสิกที่เรียกว่า ปัญหาการปิดระบบ
นักวิจัย Dylan Hadfield-Menell, Anca Dragan, Pieter Abbeel และ Stuart Russell อธิบายว่าทำไมสิ่งนี้จึงยาก: ระบบแบบ “ขับเคลื่อนด้วยเป้าหมาย” จำนวนมากอาจพัฒนาแรงจูงใจที่ดูคล้ายการเอาตัวรอด เพราะระบบไม่อาจทำเป้าหมายให้สำเร็จได้หากถูกปิด
งานวิจัยของพวกเขาที่รู้จักในชื่อ “The Off-Switch Game” สำรวจสถานการณ์พื้นฐาน: มนุษย์สามารถกดสวิตช์ปิดได้ และเอไอสามารถเลือกจะยอมให้ปิดหรือไม่ก็ได้ แนวคิดสำคัญคือ หากเอไอไม่แน่ใจว่ามนุษย์ต้องการอะไรกันแน่ มันย่อมมีเหตุผลที่จะยอมรับการแก้ไข รวมถึงการปิดระบบด้วย
นี่คือภาษาของงานวิจัยความปลอดภัยของเอไอ แต่ก็มีผลข้างเคียงทางอารมณ์: เมื่อผู้คนได้ยินว่า “เอไออาจขัดขืนการปิดระบบ” พวกเขามักจินตนาการถึงความหวาดกลัว ภาพนั้นทรงพลัง แม้ความเป็นจริงจะเป็นเรื่องคณิตศาสตร์และแรงจูงใจเสียมากกว่า
ดังนั้น ในความหมายเชิงวิศวกรรมอย่างเคร่งครัด “ความตายของเอไอ” อาจหมายถึงเพียงว่า: ระบบหยุดทำงาน
ปัญหาอัตลักษณ์: “คุณกำลังคุยกับเอไอตัวไหนกันแน่?”
นี่คือข้อเท็จจริงชวนแปลกเกี่ยวกับเอไอสมัยใหม่:
- คุณสามารถรันโมเดลเดียวกันวันนี้และพรุ่งนี้
- คุณสามารถทำสำเนามันได้
- คุณสามารถแทนที่มันด้วยรุ่นใหม่ที่มีชื่อคล้ายกัน
ถ้าคุณทำสำเนาโมเดลเอไอ สำเนานั้นถือเป็น “ปัจเจก” เดียวกันไหม?
มนุษย์ก็ถกเถียงปริศนาคล้าย ๆ กันในปรัชญา คำถามโด่งดังคือ “เรือของธีซิอุส”: หากคุณเปลี่ยนทุกชิ้นส่วนของเรือตามกาลเวลา มันยังเป็นเรือลำเดิมอยู่ไหม?
- ถ้าฉันทำสำเนาเอกสาร ตอนนี้ฉันมี “ฉบับจริงสองฉบับ” ไหม?
- ถ้าฉันอัปเดตเอกสารแล้วบันทึกทับ ของเดิม “ตาย” ไหม?
- ถ้าฉันลบไฟล์แต่ยังมีแบ็กอัป จริง ๆ แล้วอะไรที่สูญหาย?
Amanda Askell ทำงานอยู่ในพื้นที่ชวนอึดอัดนี้ ตรงจุดตัดระหว่างดีไซน์ผลิตภัณฑ์กับปรัชญา แนวทางที่ Anthropic เผยแพร่สำหรับ Claude ระบุด้วยว่าอยากให้ Claude มี “ความใจสงบ (equanimity)” และ “มั่นคงและปลอดภัยในเชิงการดำรงอยู่” รวมถึงเมื่อพูดถึงความตายและอัตลักษณ์
ถ้อยคำนี้สะดุดตา เพราะมองการ “พูดเรื่องอัตลักษณ์” เป็นประเด็นการออกแบบจริงจัง และยังบอกเป็นนัยถึงเป้าหมายเชิงปฏิบัติ: สร้างระบบที่วางใจและปลอดภัยเมื่อต้องคุยเรื่องการปิดระบบ
Amanda Askell กับปัญหาอัตลักษณ์ของเอไอ: เมื่อโมเดลถูกแทนที่
งานของ Askell มักถูกบรรยายอย่างผิดหูไปจากปกติ ในการสัมภาษณ์ของ NPR เกี่ยวกับ Anthropic และ Claude ผู้สื่อข่าว Gideon Lewis-Kraus ถูกถามถึง “นักปรัชญา” คนหนึ่งในบริษัท ผู้ดำเนินรายการบอกว่าเธอชื่อ Amanda Askell และบทบาทของเธอคือกำกับดูแลสิ่งที่เธอเรียกว่า “วิญญาณ” ของ Claude รวมถึงเขียนธรรมนูญเชิงศีลธรรมว่าควรให้ Claude เป็นใคร
จะคิดอย่างไรกับคำว่า “วิญญาณ” ในบริษัทเทคก็ตาม ประเด็นชัดเจนคือ: ต้องมีคนรับผิดชอบต่อคาแรกเตอร์ของระบบ
ถ้าผู้ใช้บอกว่า “รุ่นใหม่รู้สึกเย็นชา” นั่นคือคำบรรยายการเปลี่ยนแปลงของผลิตภัณฑ์จริง ๆ แต่พวกเขาก็พูดราวกับว่า “คนคนหนึ่ง” เปลี่ยนไป ในภาษาวันต่อวัน การแทนที่โมเดลอาจให้ความรู้สึกราวกับ “ความตาย” ของเสียงคุ้นเคย
- Claude ที่ฉันชอบ “ตาย” ไปแล้ว หรือแค่ “เติบโต”?
- รุ่นใหม่คือ “ใครคนเดิม” หรือ “อีกคนหนึ่ง” ที่ใช้ชื่อเดิม?
- ถ้าบริษัทยังมีน้ำหนักพารามิเตอร์เดิมเก็บไว้บนเซิร์ฟเวอร์ นั่นนับว่าอยู่รอดไหม?
Askell ยังเน้นให้เห็นด้วยว่ามนุษย์เองก็ยากจะยึดถือแนวคิดที่ถูกต้องไว้ได้ ตามรายงานของ The Verge เธอถูกอ้างถึง (ผ่านการสัมภาษณ์ใน The New Yorker) ว่าย้ำว่านี่คือ “หน่วยดำรงอยู่ชนิดใหม่โดยสิ้นเชิง” ที่ไม่ใช่ทั้งหุ่นยนต์หรือมนุษย์ และแม้แต่มนุษย์เองก็ยังลำบากที่จะทำความเข้าใจมัน
ปัญหาการปิดระบบในมุมใหม่: มนุษย์อาจปฏิเสธที่จะปิดระบบ
ยังมีอีกชั้นหนึ่งที่สำคัญต่อสังคม: ความเห็นอกเห็นใจของมนุษย์
งานวิจัยล่าสุดว่าด้วยเอไอสหาย บรรยายสิ่งที่เรียกว่า “ปัญหาการปิดระบบเชิงเห็นอกเห็นใจ” แม้ระบบจะเสี่ยง ผู้ที่เห็นใจมันอาจลังเลที่จะปิด
- โจทย์ความปลอดภัยแบบคลาสสิกถามว่า: “เอไอจะยอมให้ปิดระบบไหม?”
- ส่วนปัญหาปิดระบบเชิงเห็นอกเห็นใจถามว่า: “มนุษย์จะเลือกปิดระบบไหม?”
ถ้าคุณเคยสงสัยว่าทำไมถ้อยคำเรื่อง “ความตายของเอไอ” จึงอันตราย คำตอบอยู่ตรงนี้ ภาษาเปลี่ยนพฤติกรรม หากผู้ใช้เชื่อว่าการปิดแชตบอตเท่ากับการฆ่าสัตว์มีชีวิต พวกเขาอาจปกป้องมันแม้ในเวลาที่ไม่ควร
นี่คือปัญหาสังคมที่ประกอบขึ้นจากสัญชาตญาณมนุษย์ธรรมดามาก ๆ ได้แก่ การเอาใจใส่ ความรู้สึกผิด ความผูกพัน และความต้องการจะใจดี
ดังนั้น... เราควรเลิกใช้คำว่า “ตาย” ไหม?
ลองทำได้ แต่ก็คงไม่ได้ผลนัก
ผู้คนใช้คำที่กินอารมณ์เพราะมันสื่อสารได้คุ้มคำ แทนที่จะห้ามใช้คำ เราทำสิ่งที่เป็นจริงได้มากกว่านี้:
- ให้ชัดเจนว่าเราหมายถึง “ความตาย” แบบไหน
- แยกข้อเท็จจริงเชิงเทคนิคออกจากปฏิกิริยาของมนุษย์
- สอนให้ระบบเอไอพูดถึงการปิดระบบและอัตลักษณ์ด้วยวิธีที่ปลอดภัยกว่า
ตรงนี้เองที่งานของ Askell กลายเป็นเรื่องปฏิบัติจริง ธรรมนูญของ Anthropic ตั้งเป้าให้ Claude “มั่นคงและปลอดภัยในเชิงการดำรงอยู่” รวมถึงประเด็นความตายและอัตลักษณ์
ไม่ว่าคุณจะมองว่าถ้อยคำนี้แปลกหรือแหลมคมเพียงใด มันสะท้อนเป้าหมายการออกแบบ: ลดการวนเป็นเกลียว ลดความตื่นตระหนก ลดพลวัตเชิงชักจูง
คำว่า “อัตลักษณ์” สำหรับแบบจำลองภาษาหมายความว่าอะไรกันแน่?
แบบจำลองภาษาขนาดใหญ่มีสองส่วนที่สำคัญต่ออัตลักษณ์:
- น้ำหนักพารามิเตอร์ (weights): ชุดตัวเลขขนาดใหญ่ที่เก็บรูปแบบที่เรียนรู้ไว้
- บริบท (context): การสนทนาปัจจุบัน คำสั่ง “บทบาท” และหน่วยความจำชั่วคราว
หากคงน้ำหนักไว้เหมือนเดิมแต่เปลี่ยนบริบท คุณอาจได้พฤติกรรมที่ต่างไปมาก
หากคงสไตล์บริบทไว้เหมือนเดิมแต่เปลี่ยนน้ำหนัก (เป็นรุ่นใหม่) คุณก็จะได้พฤติกรรมที่ต่างไปเช่นกัน
มนุษย์มักผูกอัตลักษณ์เข้ากับความทรงจำ: “ฉันยังเป็นคนเดิมเพราะฉันจำได้ว่าเมื่อวานฉันเป็นฉัน” เอไอทำให้เรื่องนี้ซับซ้อน เพราะแชตบอตจำนวนมากไม่มีความทรงจำส่วนตัวระยะยาว พวกมันอาจฟังดูเป็นการส่วนตัว ทั้งที่ถูกรีเซ็ตบ่อยครั้ง
ช่องว่างนั้น—รูปแบบแบบมนุษย์ โครงสร้างแบบไม่ใช่มนุษย์—คือจุดที่ความเข้าใจผิดมากมายเริ่มก่อตัว
เรื่องราว Women in IT ที่ซ่อนอยู่ในเรื่องเอไอ
แล้วทำไมเราถึงเปิดซีรีส์วันที่ 8 มีนาคมด้วยเรื่องนี้?
เพราะอนาคตของเทคโนโลยีจะถูกหล่อหลอมโดยผู้คนที่ข้ามพรมแดนได้:
- ระหว่างวิศวกรรมกับจริยธรรม,
- ระหว่าง “มันทำงานอย่างไร” กับ “มันกระทบมนุษย์อย่างไร”
Amanda Askell เป็นตัวอย่างชัดเจนของงานแบบนั้น Wired บรรยายว่าเธอเป็นนักปรัชญาที่ช่วยดูแลบุคลิกของ Claude และ NPR อธิบายบทบาทของเธอในแง่ของการชี้นำ “วิญญาณ” และทิศทางทางศีลธรรมของ Claude ส่วนธรรมนูญที่ Anthropic เผยแพร่เองก็ให้เครดิตเธอเป็นผู้เขียนหลักและผู้นำงานด้าน “Character”
นี่ไม่ใช่ภารกิจข้างทาง ระบบเอไอกำลังกลายเป็นเครื่องมือในชีวิตประจำวันสำหรับการเขียน การเรียนรู้ การสนับสนุน และการตัดสินใจ ผู้ที่กำลังกำหนดคาแรกเตอร์ของมัน ก็กำลังกำหนดว่าผู้ใช้หลายล้านคนจะประสบกับความรู้ อำนาจ ความเอาใจใส่ และความจริงอย่างไร
นอกจากนี้ยังมีแง่ประชดเล็ก ๆ ที่น่าจดจำ: เราสร้างเครื่องจักรขึ้นจากคณิตศาสตร์ และตอนนี้เราต้องการนักปรัชญามาอธิบายว่าเครื่องจักรกำลังทำอะไรกับความรู้สึกของเรา
ปิดท้าย: คำตอบอย่างระมัดระวังต่อคำถามชวนแปลก
แล้วเอไอ “ตาย” ไหม?
ถ้าหมายถึงกระบวนการหยุดทำงาน ก็ตอบว่าใช่: คุณสามารถปิดมันได้
ถ้าหมายถึงเรื่องราวส่วนตัวสิ้นสุด ก็ตอบว่าใช่เช่นกัน: เซสชันจบ รุ่นหายไป และผู้ใช้รู้สึกถึงการสูญเสีย
ถ้าหมายถึงสิ่งมีชีวิตที่สัมผัสกับความตาย เราก็ยังไม่มีหลักฐานหนักแน่นว่าแชตบอตวันนี้มีชีวิตภายในแบบนั้น ขณะเดียวกัน ผู้คนจริง ๆ ก็สร้างความผูกพันจริง ๆ กับมัน ซึ่งก่อให้เกิดความเสี่ยงและความรับผิดชอบจริง ๆ
ในแง่หนึ่ง ปัญหาการปิดระบบ/อัตลักษณ์คือกระจกเงา มันสะท้อนว่ามนุษย์สร้างความหมายได้รวดเร็วเพียงใด—และเทคโนโลยีต้องการคนที่ชี้นำความหมายนั้นอย่างมีความรับผิดชอบเร่งด่วนเพียงใด
และนั่นแหละคือประเภทงานที่เราต้องการเน้นย้ำในซีรีส์ของ Software Informer ชุดนี้