بقلم محمد عادل
ألقت عودة سام ألتمان، مؤسس OpenAI إلى منصبه، الأربعاء، على رأس الشركة بعد إقالته، بظلال من الغموض والضبابية بشأن السبب الحقيقي وراء قرار الإقالة الذي اتخذه مجلس الإدارة، الجمعة الماضي.
ويستمر الغموض وراء إقالة ألتمان، خاصة وأن عودته إلى منصبه الإداري كرئيس تنفيذي للشركة جاءت مقابل رحيل 2 من أعضاء مجلس الإدارة، وتنصيب عضوين جديدين في المجلس، تم الاتفاق على ضمهما بموجب اتفاقية عودة ألتمان إلى الشركة.
كذلك، أثارت تغريدة نشرها رئيس قطاع أبحاث الذكاء الاصطناعي داخل الشركة، إيليا ساتسكيفير، منذ يومين، أعلن خلالها ندمه على المشاركة في قرار إقالة ألتمان الصادر عن مجلس الإدارة، مؤكداً استعداده للقيام بأي شيء لتحقيق الأفضل للشركة وجمع شملها من جديد، الكثير من التساؤلات بشأن ملابسات الإقالة وتداعياتها.
كما سبقت قرار الإقالة العديد من الأحداث المثيرة للجدل، مثل تصريحات لألتمان بشأن اقتراب الشركة من إطلاق الجيل الجديد من نموذجها الذكي GPT-5، وخروج تقارير تتحدث عن سعي رائد الأعمال الشهير لتأسيس شركة جديدة متخصصة في إنشاء الشرائح الإلكترونية لينافس بها عمالقة مثل “نفيديا”.
مجلس الأربعة
التحكم في قرارات واحدة من أقوى شركات العالم بسوق الذكاء الاصطناعي يعد مهمة صعبة، فدائماً ما يتقلب العقل بين تحقيق أرباح بمليارات الدولارات والأمان والسلامة، وهذا بالضبط ما كان مجلس إدارة OpenAI يعمل على الموائمة بينه منذ تأسيسها في 2015.
وفقد المجلس العام الماضي، 3 من أعضائه، وهم ريد هوفمان، مؤسس شبكة المهنيين “لينكد إن”، وشيفون زيليس، المدير التنفيذي بشركة “نيورالينك”، وويل هرد، النائب السابق بالكونجرس عن ولاية تكساس، وهو الأمر الذي ترك سلطاته تتركز بين يديّ الأكاديميين والعاملين في المجتمع المدنيّ ومدراء من خارج الشركة، وجميعهم كانوا أقل ولاءً لألتمان.
وأعضاء المجلس الأربعة الذين اتخذوا قرار إقالة ألتمان هم، إيليا ساتسكيفير، رئيس قطاع أبحاث الذكاء الاصطناعي بـOpenAI، وآدم دانجيلو، مؤسس ومدير موقع Quora للأسئلة، وتاشا مكاولي، وهو عالم إداري مساعد بشركة Rand Corp. غير الهادفة للربح، وهيلين تونر، مديرة المركز البحثي للأمن والتقنيات الناشئة بجامعة “جورج تاون”.
وبحسب تقرير مفصل نشرته “وول ستريت جورنال”، أكدت مصادر من داخل الشركة على أن مجلس الإدارة كان دائم الشك في نوايا ألتمان، لدرجة دفعت أعضاءه الأربعة نحو التأكد من كل معلومة يخبرهم بها.
وأضاف التقرير أن مجلس الأربعة كانت تغلب عليه النزعة الإيثارية، إذ كانت قراراته دائماً ما تتصادم مع طموحات ورؤى ألتمان، فالمجلس دائماً ما كان يسعى نحو المثالية وتقديم المنفعة للبشرية، ويُغلّب هذا الاتجاه على مبدأ الربحية.
تجلت ملامح هذا التصادم، عندما شاركت عضوة المجلس هيلين تونر، مديرة المركز البحثي للأمن والتقنيات الناشئة بجامعة “جورج تاون”، خلال أكتوبر الماضي في نشر ورقة بحثية تتناول أساليب السلامة التي تتبعها شركة “أنثروبيك”، المنافسة البارزة لـOpenAI.
ومدحت عضوة مجلس إدارة OpenAI منافسة شركتها بشكل كبير، وقالت عنها في ورقتها: “عبر تأجيل إطلاق منصتها Claude إلى حين طرح منافس قوي بالإمكانيات نفسها، نجحت شركة (أنثروبيك) في تجنب الدخول في السباق المحموم، الذي حفزه ChatGPT بمجرد إطلاقه”.
دخل ألتمان في خلاف مع تونر بشأن ورقتها البحثية، متهماً إياها بأنها أضرت بالشركة، إلا أنها دافعت عنها، موضحة أنها استخدمت صياغة أكاديمية موجهة للمجتمع البحثي، ولم تتوقع خروج الورقة للعموم.
كان هذا الموضوع محل نقاش داخل قناة إلكترونية عبر خدمة “سلاك” للتراسل الفوري، بين موظفي OpenAI، قبل يومين من إعلان قرار إقالة ألتمان، وكان إيليا ساتسكيفير مشاركاً في القناة، بحسب “وول ستريت جورنال”.
عودة ألتمان إلى الشركة كان أحد شروطها إقالة 3 أعضاء من المجلس، فلم يتبق إلا مؤسس كورا، مع تعيين كلا من بريت تايلور المدير التنفيذي السابق لشركة “سيلز فورس”، ووزير الخزانة الأميركية الأسبق لاري سومرز، وذلك بشكل مبدئي، فالتوقعات تشير إلى احتمالية أن يكون هناك ممثل لمايكروسوفت وآخر لألتمان في المجلس.
تحفظات إيليّا
السبب الرئيسي الذي وضعته OpenAI وراء إقالة ألتمان كان “عدم صراحته ووضوحه في اتصالاته مع المجلس”، ولكن بعض معلومات من مصادر مقربة داخل الشركة أكدت على أن أسلوب إدارة ألتمان وتمسكه برأيه وعناده كان السبب الرئيسي وراء ذلك.
هذا تماماً ما انتقده إيليّا، مدير القطاع البحثي بالشركة، في منشور عبر حسابه نشره سبتمبر الماضي، قائلا: “الأنا عدو النمو”.
هذا الاختلاف في الرؤى كان السبب وراء الانقسام في صفوف الشركة، وقد يكون السبب أيضاً في مسارعة 3 باحثين بارزين للاستقالة بعد إقالة ألتمان، وهم جايكوب باتشوكي، مدير فريق تطوير نموذج GPT-4 بالشركة، وأليكسندر مادري، رئيس فريق تقييم أخطار الذكاء الاصطناعي، وسزيمون سايدور، أحد الباحثين.
الجمعة الماضي، وبعد إعلان إقالة مدير OpenAI، وقف رئيس قطاع الأبحاث أمام موظفي الشركة معلناً أن “القرار نابع من أداء مجلس الإدارة لتحقيق هدف مؤسستنا الأم غير الهادفة للربح، والذي يتمثل في بناء ذكاء اصطناعي عام AGI يسعى لصلاح وإفادة البشرية”، وذلك بحسب ما أورده تقرير لـ”ذا إنفورميشن”.
إيليّا، والذي كان عالماً باحثاً في قطاع جوجل للذكاء الاصطناعي Google Brain منذ 2013 وحتى 2015، قد بدأ التدقيق على خطوات OpenAI في تطوير قدرات نماذجها الذكية، وجهودها للتوصل إلى نماذج الذكاء الخارق النظرية SuperIntelligent AI، عبر توليه رئاسة فريق الشركة الجديد SuperAlignment المختص بكيفية التحكم في تلك النماذج، وتوجيهها لإفادة البشرية.
أظهر إيليا غضباً واستنكاراً ملحوظاً، خلال مؤتمر OpenAI الأول للمطورين DevDay 2023 مطلع نوفمبر، خاصة عندما وقف ألتمان ليعلن عن إطلاق أداة برمجية Assistant API تسمح للمطورين بإنشاء روبوتاتهم البرمجية الخاصة على أساس نفس تقنيات ChatGPT، وعرضها أمام الجمهور في متجر الشركة الجديد GPTs Store، وذلك بحسب تصريحات مصادر للمحررة التقنية الشهيرة كارا سويشر.
المثير للدهشة، أن إيليا “ندم” على مشاركته في قرار مجلس إدارة أوبن إيه آي بإقالة ألتمان، وعبّر عن ذلك في منشور على إكس، بل وذهب في موقفه المتناقض لأبعد من ذلك عندما وقع على خطاب مفتوح، وقّع عليه تقريباً جميع موظفي الشركة، طالب مجلس الإدارة بالاستقالة وإعادة ألتمان لمنصبه.
ولكن مع عودة ألتمان إلى الإدارة، من المتوقع أن تنكسر شوكة إيليّا، خاصة مع اعتذاره في التغريدة، وتوقيعه وثيقة الموظفين، وكذلك خروجه من مجلس الإدارة.
طموحات لا نهائية
طموحات ألتمان في سوق الأعمال لا حدود لها، فلديه عدد كبير من الشركات الناشئة، المؤسسة من جانبه، أو تلك التي يمدها باستثماراته في مجال الذكاء الاصطناعي، ولكن هذه الطموحات تعارضت مع النزعة غير الربحية للمؤسسة المالكة والمنظمة لعمل شركة OpenAI.
ويرجح البعض أن آخر أفكار ألتمان التي اقتربت من الخروج للنور، قد تكون القشة التي أسهمت في إقالته من الشركة، فبحسب تقارير نشرتها “ذا إنفورميشن” و”نيويورك تايمز”، فإن ألتمان وبروكمان كانا يعملان على خطة لتأسيس شركة جديدة، استعدادا لعرضها على المستثمرين، وفقاً لما صرح به 3 مصادر مقربين من تفاصيل التطورات.
وأشارت “نيويورك تايمز” إلى أن أحد المصادر أشار إلى أن الثنائي عكف الجمعة الماضي، عقب الإقالة، على وضع الملامح العامة لشركتهما الجديدة، كما حددا قائمة تضم عدداً من موظفي الشركة ينويان إضافتهم لفريق شركتهم الجديدة.
ونشرت “بلومبرغ” تقريراً يؤكد أن الشركة الجديدة كان يُخَطَّط لتمويلها من خلال علاقات ألتمان بعدد من الصناديق الاستثمارية السيادية في الشرق الأوسط، فالشركة تهدف إلى تصميم وإنتاج شرائح إلكترونية لتدريب نماذج الذكاء الاصطناعي، ما يضعها كمنافس مباشر لعمالقة هذا السوق، وعلى رأسهم “نفيديا”، التي تستحوذ على 80% من سوق الرقائق.
إيليّا وبقية أعضاء مجلس الإدارة، الذي لم يتبق منهم حالياً إلا دانجيلو بصحبة أعضاء جدد، عارضوا فكرة استخدام ألتمان لاسم OpenAI لحصد استثمارات لصالح شركته الجديدة، إذ اعتقدوا أنه سيضر بصورة مؤسستهم غير الهادفة للربح.
ولكن عودة ألتمان إلى الشركة من المرجح أن تحقق طموحاته، من خلال عودته إلى كرسي المدير التنفيذي لـOpenAI، خاصة وأنه بعد إقالته مطلع الأسبوع، دخل جدياً في مسار الموافقة على عرض الانضمام لمايكروسوفت، التي دخلت بشكل جدي مؤخراً في تصنيع شرائح تدريب النماذج الذكية، ما يجعل طموحه قابلاً للتحقق، رغماً عن الرافضين.
“تهديد البشرية”
والخميس، قال مصدران مطلعان لوكالة “رويترز” إنه قبل أزمة ألتمان، كتب عدد من الباحثين رسالة إلى مجلس الإدارة يحذرون فيها من اكتشاف قوي للذكاء الاصطناعي، قالوا إنه قد يهدد البشرية.
وقال المصدران إن الرسالة، التي لم يُبْلَغ عنها سابقاً، وخوارزمية الذكاء الاصطناعي كانت تطورات رئيسية قبل إطاحة مجلس الإدارة بألتمان، الذي ارتبط اسمه بمنظومة الذكاء الاصطناعي التوليدي.
وأشارت المصادر إلى الرسالة كعامل واحد من بين قائمة أطول من المظالم التي قدمها مجلس الإدارة، والتي أدت إلى إقالة ألتمان، من بينها المخاوف بشأن التسويق المسبق قبل فهم العواقب.
طفرة في الذكاء الاصطناعي
ويعتقد البعض في OpenAI أن “Q *” (تنطق Q-Star) يمكن أن تكون طفرة في بحث الشركة الناشئة عما يعرف باسم الذكاء العام الاصطناعي (AGI)، كما قال أحد الأشخاص لـ”رويترز”.
وبالنظر إلى موارد الحوسبة الهائلة، كان النموذج الجديد قادراً على حل مشكلات رياضية محددة، بحسب الشخص الذي تحدث بشرط عدم الكشف عن هويته؛ لأنه غير مخول بالتحدث نيابة عن الشركة.
وقال المصدر إنه على الرغم من الحديث يجري عن أداء الرياضيات فقط بمستوى طلاب المدارس الابتدائية، إلا أن اجتياز مثل هذه الاختبارات جعل الباحثين متفائلين للغاية بشأن نجاح Q * في المستقبل.
ويعتبر الباحثون الرياضيات بمثابة حدود لتطوير الذكاء الاصطناعي التوليدي. وينبغي الانتباه إلى أن الذكاء الاصطناعي التوليدي، في الوقت الحالي، يعد جيداً في الكتابة وترجمة اللغة من خلال التنبؤ إحصائياً بالكلمة التالية، ويمكن أن تختلف الإجابات على السؤال نفسه بشكل كبير.
لكن الوصول إلى القدرة على أداء مسائل الرياضيات، حيث لا توجد سوى إجابة واحدة صحيحة، يعني أن الذكاء الاصطناعي سيتمتع بقدرات تفكير أكبر تشبه الذكاء البشري.
وعلى عكس الآلة الحاسبة التي يمكنها حل عدد محدود من العمليات الحسابية، يمكن للذكاء العام الاصطناعي AGI التعميم والتعلم والفهم.
خطر الذكاء الاصطناعي
في رسالتهم إلى مجلس الإدارة، أشار الباحثون إلى براعة الذكاء الاصطناعي وخطره المحتمل، حسبما قالت المصادر دون تحديد مخاوف السلامة الدقيقة المذكورة في الرسالة.
ولطالما كان هناك نقاش بين علماء الكمبيوتر حول الخطر الذي تشكله الآلات عالية الذكاء، على سبيل المثال إذا قررت هذه الآلات أن من مصلحتها تدمير البشرية.