وكالات
وقع بعض العاملين الحاليين والسابقين في صناعة الذكاء الاصطناعي، خطاباً يحذرون فيه من نقص الرقابة على السلامة ويطالبون بمزيد من الحماية للمبلغين عن المخالفات.
أصدرت مجموعة من الموظفين الحاليين والسابقين في شركات الذكاء الاصطناعي البارزة رسالة مفتوحة يوم الثلاثاء حذرت من نقص الرقابة على السلامة داخل الصناعة ودعوا إلى زيادة الحماية للمبلغين عن المخالفات.
تعد الرسالة التي تدعو إلى “الحق في التحذير من الذكاء الاصطناعي”، واحدة من أكثر التصريحات العلنية حول مخاطر الذكاء الاصطناعي من جانب الموظفين ضمن صناعة تعتبر سرية بشكل عام. وقع على الرسالة 11 موظفاً حالياً وسابقاً في OpenAI، بالإضافة إلى اثنين من موظفي “Google DeepMind” الحاليين أو السابقين – أحدهما كان يعمل سابقاً في “Anthropic”.
وجاء في الرسالة: “تمتلك شركات الذكاء الاصطناعي معلومات كبيرة غير عامة حول قدرات أنظمتها والقيود المفروضة عليها، ومدى كفاية تدابير الحماية الخاصة بها، ومستويات مخاطر أنواع مختلفة من الضرر”. “ومع ذلك، ليس لديهم حالياً سوى التزامات ضعيفة بمشاركة بعض هذه المعلومات مع الحكومات، وليس مع المجتمع المدني. ولا نعتقد أنه يمكن الاعتماد عليهم جميعاً لتقاسمها طوعاً”.
ودافعت شركة OpenAI عن ممارساتها في بيان، قائلة إن لديها طرقاً مثل خط إرشادي للإبلاغ عن المشكلات في الشركة وأنها لم تطلق تقنية جديدة حتى تكون هناك ضمانات مناسبة، وفقاً لما ذكرته صحيفة “الغارديان”، واطلعت عليه “العربية Business”.
وقال متحدث باسم “OpenAI”: “نحن فخورون بسجلنا الحافل في توفير أنظمة الذكاء الاصطناعي الأكثر قدرة والأكثر أماناً ونؤمن بنهجنا العلمي لمعالجة المخاطر”. “متفقون على أن النقاش الدقيق أمر بالغ الأهمية نظراً لأهمية هذه التكنولوجيا وسنواصل التعامل مع الحكومات والمجتمع المدني والمجتمعات الأخرى حول العالم”.
كانت المخاوف بشأن الأضرار المحتملة للذكاء الاصطناعي موجودة منذ عقود، لكن طفرة الذكاء الاصطناعي في السنوات الأخيرة زادت من حدة هذه المخاوف وتركت الهيئات التنظيمية تسعى جاهدة للحاق بالتقدم التكنولوجي. وبينما أعلنت شركات الذكاء الاصطناعي علناً عن التزامها بتطوير التكنولوجيا بأمان، فقد حذر الباحثون والموظفون من نقص الرقابة لأن أدوات الذكاء الاصطناعي تؤدي إلى تفاقم الأضرار الاجتماعية الحالية أو خلق أضرار جديدة تماماً.
تدعو الرسالة الموجهة من الموظفين الحاليين والسابقين في شركة الذكاء الاصطناعي، والتي نشرتها صحيفة نيويورك تايمز، إلى زيادة الحماية للعاملين في شركات الذكاء الاصطناعي المتقدمة الذين يقررون التعبير عن مخاوفهم المتعلقة بالسلامة. ويطالب بالالتزام بأربعة مبادئ حول الشفافية والمساءلة، بما في ذلك بند ينص على أن الشركات لن تجبر الموظفين على التوقيع على أي اتفاقيات عدم الاستخفاف التي تحظر بث قضايا الذكاء الاصطناعي المتعلقة بالمخاطر وآلية للموظفين لتبادل المخاوف مع أعضاء مجلس الإدارة دون الكشف عن هويتهم.
وجاء في الرسالة: “طالما لا توجد رقابة حكومية فعالة على هذه الشركات، فإن الموظفين الحاليين والسابقين هم من بين الأشخاص القلائل الذين يمكنهم مساءلتهم أمام الجمهور”. “ومع ذلك، فإن اتفاقيات السرية الواسعة تمنعنا من التعبير عن مخاوفنا، باستثناء الشركات نفسها التي قد تفشل في معالجة هذه القضايا”.
اتبعت شركات مثل OpenAI أيضاً تكتيكات عدوانية لمنع الموظفين من التحدث بحرية عن عملهم، حيث ذكرت Vox الأسبوع الماضي أن OpenAI جعلت الموظفين الذين يغادرون الشركة يوقعون على مستندات عدم الاستخفاف وعدم الإفصاح المقيدة للغاية أو يفقدون جميع حقوقهم المكتسبة. اعتذر سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بعد التقرير، قائلاً إنه سيغير الإجراءات.
وتأتي الرسالة بعد استقالة اثنين من كبار موظفي OpenAI، المؤسس المشارك إيليا سوتسكيفر وباحث السلامة الرئيسي جان لايكي، من الشركة الشهر الماضي. بعد رحيله، زعم لايكي أن شركة OpenAI تخلت عن ثقافة السلامة لصالح “المنتجات اللامعة”.
وكررت الرسالة المفتوحة يوم الثلاثاء بعض تصريحات لايكي، قائلة إن الشركات لم تظهر أي التزام بالشفافية بشأن عملياتها.