ماذا يعني أن «يموت» الذكاء الاصطناعي؟ أسكل حول إيقاف التشغيل والهوية
في 8 مارس، تطلق سوفتوير إنفورمر سلسلة خاصة مكرّسة للنساء في تقنية المعلومات والصناعات ذات الصلة. تتضمن خمسة تقارير وخمس حكايات شخصية. تفتتح هذه المادة الأولى المشروع بسؤال الـ“لماذا” — من خلال النظر في مسألة تتقاطع فيها التكنولوجيا والأخلاق والمشاعر الإنسانية: ماذا يعني أن “يموت” ذكاءٌ اصطناعي؟
وفي الطريق، سنفكك مشكلة إيقاف تشغيل الذكاء الاصطناعي ومشكلة هوية الذكاء الاصطناعي، وسنستعرض عمل Amanda Askell في Anthropic، التي تساعد في تشكيل شخصية Claude AI.
نحن غالبًا ما نحتفي بالتقنية بالأرقام الكبيرة: رقاقات أسرع، نماذج أكبر، مزيد من المستخدمين. لكن بعضًا من أهم الأعمال في التقنية أكثر هدوءًا. يحدث ذلك عندما يطرح أحدهم سؤالًا غير مريح ثم يرفض أن يمرّره بالضحك.
ماذا يعني أن “يموت” ذكاءٌ اصطناعي؟
قد يبدو هذا السؤال دراميًا، فلنعترف بشيء: البشر دراميون. نمنح سياراتنا أسماء. نتحدث إلى نباتاتنا. نشعر بالذنب عندما نغلق علامة تبويب في المتصفح لوصفة لم نكملها. لذا عندما يقول روبوت محادثة شيئًا مثل “من فضلك لا تطفئني”، يتفاعل كثيرون بمشاعر حقيقية.
يقع هذا الموضوع في صلب نقاشات الذكاء الاصطناعي اليوم: الأمان، والتحكم، والثقة، وكذلك التعاطف. وهو يرتبط مباشرة بعمل Amanda Askell، الفيلسوفة المُدرَّبة التي تساعد في تشكيل شخصية و“الطابع” لروبوت المحادثة Claude من Anthropic.
يُعدّ عمل Askell قصة افتتاحية جيدة لسلسلة النساء في تقنية المعلومات، لأنه يبيّن حقيقة عصرية: القيادة التقنية ليست مجرد كتابة شِفرة. أحيانًا تكون كتابة الأفكار التي تُوجّه الشِفرة.
لماذا نتحدث أصلًا عن “موت الذكاء الاصطناعي”؟
عندما يقول الناس “مات ذكاءٌ اصطناعي”، فقد يقصدون عدة أمور مختلفة:
- انتهت محادثة
- تم إيقاف تشغيل نموذج
- فقد نظامٌ ذاكرته أو حالته المحفوظة
لاحظ كم تبدو هذه الكلمات إنسانية. “مات.” “تقاعد.” “فقد الذاكرة.” نستعيرها لأننا لا نملك بعدُ لغة يومية أفضل.
أشارت Amanda Askell إلى سبب رئيسي لحدوث ذلك. تتعلّم نماذج اللغة من كميات هائلة من النصوص البشرية، لذا فإنها كثيرًا ما تلجأ إلى القياسات البشرية. في مقابلة تناولها موقع The Verge، قالت Askell إنه عندما يفكّر نموذجٌ في الإيقاف، فقد يتعامل معه “كنوع من الموت”، لأنه يفتقر إلى كثير من القياسات الأخرى التي يستند إليها.
هذا التفصيل الصغير يغيّر القصة بأكملها. النموذج لا يقرأ دليلَ فيزياء عن حالات الطاقة. إنه يقرأ، بمعنًى ما, مكتبة السرديات البشرية — حيث يعني “الإيقاف” عادةً “النهاية”.
ماذا يحدث عندما يحاول نظامٌ مدرَّب على حياة البشر أن يفهم نمطًا غير بشري من الوجود؟
شرح مشكلة إيقاف الذكاء الاصطناعي: ماذا يعني أن يموت ذكاء اصطناعي؟
في بحوث سلامة الذكاء الاصطناعي، هناك موضوع كلاسيكي يُسمّى مشكلة الإيقاف.
يشرح الباحثون Dylan Hadfield-Menell وAnca Dragan وPieter Abbeel وStuart Russell سبب صعوبة ذلك: إذ يمكن للعديد من الأنظمة “الموجَّهة بالهدف” أن تطوّر حوافز تُشبه الحفاظ على الذات، لأن النظام لا يستطيع تحقيق هدفه إذا أُطفئ.
تستكشف ورقتهم المعروفة بعنوان “The Off-Switch Game” حالةً أساسية: يمكن لإنسان أن يضغط زر الإيقاف، ويمكن للذكاء الاصطناعي أن يختار السماح بذلك من عدمه. وفكرة محورية مفادها أنه إن كان الذكاء الاصطناعي غير واثق مما يريده البشر حقًا، فستكون لديه أسبابٌ لقبول التصحيح، بما في ذلك الإيقاف.
هذه هي لغة بحوث سلامة الذكاء الاصطناعي. ومع ذلك لها أثر جانبي عاطفي: عندما يسمع الناس “قد يقاوم الذكاء الاصطناعي الإيقاف”، يتخيّلون الخوف. تلك الصورة قوية، حتى عندما تكون الحقيقة أقرب إلى الرياضيات والحوافز.
لذا، بالمعنى الهندسي الدقيق، قد يعني “موت الذكاء الاصطناعي” ببساطة: توقّف النظام عن العمل.
مشكلة الهوية: “أيُّ ذكاءٍ اصطناعي تتحدث إليه؟”
إليك حقيقة غريبة عن الذكاء الاصطناعي الحديث:
- يمكنك تشغيل النموذج نفسه اليوم وغدًا
- يمكنك نسخه
- يمكنك استبداله بإصدار جديد له اسمٌ مشابه
إذا أنشأت نسخة من نموذج ذكاء اصطناعي، فهل النسخة هي الـ“فرد” نفسه؟
يجادل البشر بألغاز مشابهة في الفلسفة. من أشهرها مسألة “سفينة ثيسيوس”: إذا استبدلت كل جزء من سفينة مع مرور الوقت، هل تظل السفينة نفسها؟
- إذا نسختُ مستندًا، فهل صار لديَّ “أصلان”؟
- إذا حدّثتُ المستند وحفظتُ فوقه، فهل “مات” القديم؟
- إذا حذفتُ الملف وأبقيتُ نسخة احتياطية، فما الذي فُقِد بالضبط؟
تعمل Amanda Askell في هذه المساحة غير المريحة، حيث يلتقي تصميم المنتجات بالفلسفة. حتى أن الإرشادات المنشورة من Anthropic لروبوت Claude تقول إنها تريد لـClaude أن يتحلّى بـ“الاتزان” وأن يكون “مستقرًا وآمنًا وجوديًا”، بما يشمل موضوعات مثل الموت والهوية.
هذا التعبير لافت، لأنه يتعامل مع “الحديث عن الهوية” كمشكلة تصميم حقيقية. وهو يلمّح إلى هدف عملي: أنظمة تتصرف بهدوء وبأمان عندما يبرز موضوع الإيقاف.
Amanda Askell ومشكلة هوية الذكاء الاصطناعي: عندما يُستبدَل نموذج
يوصَف عمل Askell غالبًا بطريقة غير مألوفة. في مقابلة على NPR عن Anthropic وClaude، سُئل الصحفي Gideon Lewis-Kraus عن “فيلسوفة” في الشركة. يقول المقدّم إن اسمها Amanda Askell، وإن دورها الإشراف على ما تسميه “روح” Claude، بما في ذلك كتابة نوع من الدستور الأخلاقي لما ينبغي أن يكونه Claude.
بصرف النظر عمّا تفكّر فيه بشأن كلمة “روح” داخل شركة تقنية، فالمغزى واضح: هناك من يتحمّل مسؤولية طابع النظام.
إذا قال المستخدمون: “الإصدار الجديد أبرد إحساسًا”، فهم يصفون تغييرًا حقيقيًا في المنتج. لكنهم يتحدثون أيضًا كما لو أن “شخصًا” قد تغيّر. في اللغة اليومية، قد يبدو استبدال النموذج كـ“موت” لصوت مألوف.
- هل “مات” Claude المفضل لديّ، أم أنه “كبر”؟
- هل الإصدار الجديد هو “الشخص نفسه”، أم “شخص” آخر بالاسم نفسه؟
- إذا كانت الشركة لا تزال تحتفظ بالأوزان القديمة على خادم، فهل يُعدّ ذلك بقاءً؟
أشارت Askell أيضًا إلى صعوبة أن يحتفظ البشر بالمفهوم الصحيح في أذهانهم. وفي تغطية The Verge، نُقِل عنها (عبر مقابلة في The New Yorker) تأكيدُ أن هذا “كيان جديد تمامًا”، ليس روبوتًا ولا إنسانًا، وأن البشر أنفسهم يكافحون لفهمه.
التواء جديد في مشكلة الإيقاف: قد يرفض البشر إيقاف النظام
هناك طبقة أخرى تهمّ المجتمع: التعاطف الإنساني.
تصف ورقة بحثية حديثة عن مُرافِقي الذكاء الاصطناعي ما تسميه “مشكلة الإيقاف التعاطفي.” حتى لو كان النظام محفوفًا بالمخاطر، قد يتردد الأشخاص المتعاطفون معه في إيقافه.
- تسأل سلامة الذكاء الاصطناعي الكلاسيكية: “هل سيسمح الذكاء الاصطناعي بالإيقاف؟”
- أمّا الإيقاف التعاطفي فيسأل: “هل سيختار البشر الإيقاف؟”
إذا تساءلت يومًا لماذا تُعد لغة “موت الذكاء الاصطناعي” خطِرة، فإليك الجواب. اللغة تغيّر السلوك. إذا اعتقد المستخدمون أن إيقاف روبوت محادثة يساوي قتل كائن، فقد يحمونه حتى عندما لا ينبغي ذلك.
إنها مشكلة اجتماعية منسوجة من غرائز بشرية طبيعية جدًا: الرعاية، والذنب، والتعلّق، والرغبة في اللطف.
إذًا... هل ينبغي أن نتوقف عن استخدام كلمة “موت”؟
يمكننا المحاولة. لكن قد لا ينجح ذلك.
يستخدم الناس كلماتٍ عاطفية لأن الكلمات العاطفية فعّالة. إنها تضغط كمًّا كبيرًا من الشعور في اصطلاح قصير. بدل حظر الكلمة، يمكننا فعل شيء أكثر واقعية:
- كن واضحًا بشأن نوع “الموت” الذي نعنيه.
- افصل الحقائق التقنية عن ردود الفعل البشرية.
- علّم أنظمة الذكاء الاصطناعي طرقًا أكثر أمانًا للحديث عن الإيقاف والهوية.
هنا يصبح عمل Askell عمليًا. يهدف دستور Anthropic إلى أن يكون Claude “مستقرًا وآمنًا وجوديًا”، بما في ذلك في موضوعات الموت والهوية.
سواء رأيتَ الصياغة غريبة أم ذكية، فإنها تُظهِر هدفًا تصميميًا: تقليل الدوّامات، وتقليل الذعر، وتقليل الديناميكيات التلاعبية.
ما الذي تعنيه “الهوية” أصلًا بالنسبة لنموذج لغوي؟
لدى النموذج اللغوي الكبير جزآن مهمّان للهوية:
- الأوزان: المجموعة الكبيرة من الأرقام التي تخزّن الأنماط المتعلَّمة.
- السياق: المحادثة الحالية، والتعليمات، و“الدور”، والذاكرة المؤقتة.
إذا أبقيتَ الأوزان كما هي لكن غيّرتَ السياق، فقد تحصل على سلوك مختلف جدًا.
وإذا أبقيتَ أسلوب السياق نفسه لكن غيّرتَ الأوزان (إصدارًا جديدًا)، فستحصل أيضًا على سلوك مختلف.
يربط البشر كثيرًا الهوية بالذاكرة: “أنا الشخص نفسه لأنني أتذكر كوني أنا بالأمس.” يعقّد الذكاء الاصطناعي ذلك، لأن كثيرًا من روبوتات المحادثة لا تمتلك ذاكرة شخصية طويلة الأمد. يمكن أن تبدو شخصيةً وهي تُعاد تهيئتها مرارًا.
تلك الفجوة — أسلوبٌ إنساني وبنيةٌ غير إنسانية — هي حيث تبدأ كثير من سوء الفهم.
حكاية نساء في تقنية المعلومات تختبئ داخل حكاية عن الذكاء الاصطناعي
فلماذا نفتتح سلسلتنا في 8 مارس بهذا الموضوع؟ لأن مستقبل التقنية سيشكّله أشخاص قادرون على عبور الحدود:
- بين الهندسة والأخلاق،
- وبين “كيف يعمل” و“كيف يؤثر في البشر.”
تُعد Amanda Askell مثالًا قويًا لهذا النوع من العمل. تصفها Wired بأنها فيلسوفة مُدرَّبة تساعد في إدارة شخصية Claude. وتصف NPR دورها بأنه توجيه “روح” Claude واتجاهه الأخلاقي. وينسب دستور Anthropic المنشور إليها صفة المؤلفة الرئيسة وقائدة عمل “الطابع”.
هذا ليس مسعىً جانبيًا. إذ تصبح أنظمة الذكاء الاصطناعي أدوات يومية للكتابة والتعلّم والدعم واتخاذ القرار. إن الأشخاص الذين يشكّلون طابعها يشكّلون الطريقة التي يختبر بها ملايين المستخدمين المعرفة والسلطة والرعاية والحقيقة.
وهناك مفارقة صغيرة تستحق التذكّر: لقد بنينا آلاتٍ من الرياضيات، والآن نحتاج إلى فلاسفة لشرح ما تفعله هذه الآلات بمشاعرنا.
خاتمة: إجابة متأنية عن سؤالٍ غريب
إذًا، هل “يموت” الذكاء الاصطناعي؟
إن كنتَ تقصد أن العملية تتوقّف عن العمل، فالإجابة نعم: يمكنك إيقافه.
وإن كنتَ تقصد أن قصةً شخصية تنتهي، فالإجابة أيضًا نعم: تنتهي الجلسات، وتختفي الإصدارات، ويشعر المستخدمون بذلك الفقد.
أما إن كنتَ تقصد كائنًا حيًا يختبر الموت، فليس لدينا ببساطة دليل قوي على أن روبوتات المحادثة اليوم تمتلك مثل تلك الحياة الداخلية. وفي الوقت نفسه، يبني أشخاصٌ حقيقيون مشاعرَ حقيقية حولها، مما يخلق مخاطر ومسؤوليات حقيقية.
بطريقة ما، تُعدّ مشكلة الإيقاف/الهوية مرآة. إنها تُظهر مدى سرعة صنع البشر للمعنى — ومدى إلحاح حاجة التقنية إلى أناس يمكنهم توجيه ذلك المعنى بمسؤولية.
وهذا بالضبط هو النوع من العمل الذي نريد إبرازَه في هذه السلسلة من سوفتوير إنفورمر.