يريد بعض المطلعين على التكنولوجيا إيقاف التطوير المستمر لأنظمة الذكاء الاصطناعي مؤقتا قبل أن تتعارض المسارات العصبية للتعلم الآلي مع نوايا استخدام المبدعين البشريين. يجادل خبراء الكمبيوتر الآخرون بأن العثرات أمر لا مفر منه وأن التطوير يجب أن يستمر.
وقع أكثر من 1000 من التقنيين والشخصيات البارزة الذكاء الاصطناعي مؤخرا على عريضة لصناعة الحوسبة لأخذ وقف لمدة ستة أشهر لتدريب أنظمة الذكاء الاصطناعي أقوى من GPT-4. يريد المؤيدون من مطوري الذكاء الاصطناعي وضع معايير أمان والتخفيف من المخاطر المحتملة التي تشكلها تقنيات الذكاء الاصطناعي الأكثر خطورة.
نظم معهد مستقبل الحياة غير الربحي العريضة التي تدعو إلى وقف عام شبه فوري ويمكن التحقق منه من قبل جميع المطورين الرئيسيين. خلاف ذلك، يجب على الحكومات التدخل وفرض وقف اختياري. اعتبارا من هذا الأسبوع ، يقول معهد مستقبل الحياة إنه جمع أكثر من 50000 توقيع يخضع لعملية التدقيق.
الرسالة ليست محاولة لوقف كل الذكاء الاصطناعي التنمية بشكل عام. بدلا من ذلك ، يريد مؤيدوها من المطورين التراجع عن سباق خطير “إلى نماذج الصندوق الأسود الأكبر حجما والتي لا يمكن التنبؤ بها مع قدرات ناشئة”. خلال الوقت المستقطع ، يجب على مختبرات الذكاء الاصطناعي والخبراء المستقلين تطوير وتنفيذ مجموعة من بروتوكولات السلامة المشتركة لتصميم وتطوير الذكاء الاصطناعي المتقدمة.
وجاء في الرسالة: “يجب إعادة تركيز البحث والتطوير الذكاء الاصطناعي على جعل أنظمة اليوم القوية والحديثة أكثر دقة وأمانا وقابلية للتفسير وشفافية وقوة ومحاذاة وجديرة بالثقة وولاء”.
الدعم غير عالمي
من المشكوك فيه أن يقوم أي شخص بإيقاف أي شيء مؤقتا ، كما اقترح جون بامبينيك ، صائد التهديدات الرئيسي في شركة تحليلات الأمن والعمليات SaaS Netenrich. ومع ذلك، يرى وعيا متزايدا بأن النظر في الآثار الأخلاقية للمشاريع الذكاء الاصطناعي يتخلف كثيرا عن سرعة التنمية.
“أعتقد أنه من الجيد إعادة تقييم ما نقوم به والآثار العميقة التي ستحدثها ، حيث رأينا بالفعل بعض الإخفاقات المذهلة عندما يتعلق الأمر بنشر الذكاء الاصطناعي / ML الطائش” ، قال بامبينيك ل TechNewsWorld.
أي شيء نقوم به لوقف الأشياء في الفضاء الذكاء الاصطناعي ربما يكون مجرد ضجيج ، كما أضاف أندرو بارات ، نائب الرئيس في شركة الخدمات الاستشارية للأمن السيبراني Coalfire. ومن المستحيل أيضا القيام بذلك على الصعيد العالمي بطريقة منسقة.
“سيكون الذكاء الاصطناعي عامل تمكين الإنتاجية للجيلين القادمين. يكمن الخطر في مشاهدتها تحل محل محركات البحث ثم يتم تحقيق الدخل منها من قبل المعلنين الذين يضعون منتجاتهم “بذكاء” في الإجابات. الأمر المثير للاهتمام هو أن “الارتفاع” في الخوف يبدو أنه تم إطلاقه منذ المقدار الأخير من الاهتمام المطبق على ChatGPT ، “قال بارات ل TechNewsWorld.
وبدلا من التوقف، يوصي بارات بتشجيع العاملين في مجال المعرفة في جميع أنحاء العالم على النظر في أفضل السبل لاستخدام أدوات الذكاء الاصطناعي المختلفة التي أصبحت أكثر ملاءمة للمستهلك للمساعدة في توفير الإنتاجية. أولئك الذين لا يفعلون ذلك سوف يتركون وراءهم.
وفقا لديف جيري ، الرئيس التنفيذي لشركة الأمن السيبراني Bugcrowd ، يجب أن تظل السلامة والخصوصية مصدر قلق كبير لأي شركة تقنية ، بغض النظر عما إذا كانت تركز الذكاء الاصطناعي أم لا. عندما يتعلق الأمر الذكاء الاصطناعي ، فإن التأكد من أن النموذج يحتوي على الضمانات اللازمة ، وحلقة التغذية الراجعة ، وآلية لتسليط الضوء على مخاوف السلامة أمر بالغ الأهمية.
“نظرا لأن المؤسسات تتبنى بسرعة الذكاء الاصطناعي لجميع فوائد الكفاءة والإنتاجية وإضفاء الطابع الديمقراطي على البيانات ، فمن المهم التأكد من أنه مع تحديد المخاوف ، هناك آلية إبلاغ لعرضها ، بنفس الطريقة التي سيتم بها تحديد الثغرة الأمنية والإبلاغ عنها” ، قال جيري ل TechNewsWorld.
تسليط الضوء على المخاوف المشروعة
في ما يمكن أن يكون استجابة نموذجية بشكل متزايد للحاجة إلى تنظيم الذكاء الاصطناعي ، يدعم خبير التعلم الآلي أنتوني فيغيروا ، المؤسس المشارك والرئيس التنفيذي لشركة تطوير البرمجيات القائمة على النتائج Rootstrap ، تنظيم الذكاء الاصطناعي لكنه يشك في أن التوقف المؤقت في تطويره سيؤدي إلى أي تغييرات ذات مغزى.
تستخدم Figueroa البيانات الضخمة والتعلم الآلي لمساعدة الشركات على إنشاء حلول مبتكرة لتحقيق الدخل من خدماتها. لكنه يشكك في قدرة الجهات التنظيمية على التحرك بالسرعة المناسبة وفهم الآثار المترتبة على ما يتعين عليهم تنظيمه. ويرى أن التحدي مشابه لتلك التي فرضتها وسائل التواصل الاجتماعي قبل عقدين من الزمن.
“أعتقد أن الرسالة التي كتبوها مهمة. إننا نقف عند نقطة تحول، وعلينا أن نبدأ التفكير في التقدم الذي لم نحققه من قبل. أنا فقط لا أعتقد أن إيقاف أي شيء لمدة ستة أشهر أو سنة واحدة أو عامين أو عقد من الزمان أمر ممكن»، قال فيغيروا ل TechNewsWorld.
فجأة ، كل شيء مدعوم الذكاء الاصطناعي هو الشيء الكبير العالمي التالي. إن النجاح الحرفي بين عشية وضحاها لمنتج ChatGPT من OpenAI جعل العالم يجلس فجأة ويلاحظ القوة والإمكانات الهائلة لتقنيات الذكاء الاصطناعي و ML.
“نحن لا نعرف الآثار المترتبة على تلك التكنولوجيا حتى الآن. ما هي مخاطر ذلك؟ نحن نعرف بعض الأشياء التي يمكن أن تسوء مع هذا السيف ذو الحدين».
هل الذكاء الاصطناعي بحاجة إلى تنظيم؟
ناقشت TechNewsWorld مع أنتوني فيغيروا القضايا المحيطة بالحاجة إلى ضوابط المطور للتعلم الآلي والحاجة المحتملة للتنظيم الحكومي للذكاء الاصطناعي.
TechNewsWorld: في صناعة الحوسبة ، ما هي الإرشادات والأخلاقيات الموجودة للبقاء بأمان على المسار الصحيح؟
أنتوني فيغيروا: أنت بحاجة إلى مجموعة من الأخلاق الشخصية الخاصة بك في رأسك. ولكن حتى مع ذلك ، يمكن أن يكون لديك الكثير من العواقب غير المرغوب فيها. ما نفعله بهذه التكنولوجيا الجديدة ، ChatGPT ، على سبيل المثال ، يعرض الذكاء الاصطناعي لكمية كبيرة من البيانات.
تأتي هذه البيانات من مصادر عامة وخاصة وأشياء مختلفة. نحن نستخدم تقنية تسمى التعلم العميق ، والتي لها أسسها في دراسة كيفية عمل دماغنا.
كيف يؤثر ذلك على استخدام الأخلاقيات والمبادئ التوجيهية؟
فيغيروا: في بعض الأحيان ، لا نفهم حتى كيف الذكاء الاصطناعي حل مشكلة بطريقة معينة. نحن لا نفهم عملية التفكير داخل النظام البيئي الذكاء الاصطناعي. أضف إلى ذلك مفهوما يسمى قابلية التفسير. يجب أن تكون قادرا على تحديد كيفية اتخاذ القرار. ولكن مع الذكاء الاصطناعي ، لا يمكن تفسير ذلك دائما ، وله نتائج مختلفة.
كيف تختلف هذه العوامل مع الذكاء الاصطناعي؟
فيغيروا: الذكاء الاصطناعي القابلة للتفسير أقل قوة قليلا لأن لديك المزيد من القيود ، ولكن مرة أخرى ، لديك سؤال الأخلاقيات.
على سبيل المثال ، ضع في اعتبارك الأطباء الذين يعالجون حالة سرطان. لديهم العديد من العلاجات المتاحة. أحد الأدوية الثلاثة قابل للتفسير تماما وسيعطي المريض فرصة بنسبة 60٪ للشفاء. ثم لديهم علاج غير قابل للتفسير ، بناء على البيانات التاريخية ، سيكون له احتمال علاج بنسبة 80٪ ، لكنهم لا يعرفون السبب حقا.
هذا المزيج من الأدوية ، جنبا إلى جنب مع الحمض النووي للمريض وعوامل أخرى ، يؤثر على النتيجة. إذن ما الذي يجب أن يأخذه المريض؟ كما تعلمون ، إنه قرار صعب.
كيف تعرف “الذكاء” من حيث التطور الذكاء الاصطناعي؟
فيغيروا: الذكاء الذي يمكننا تعريفه على أنه القدرة على حل المشكلات. تحل أجهزة الكمبيوتر المشكلات بطريقة مختلفة تماما عن الأشخاص. نحن نحلها من خلال الجمع بين الضمير والذكاء ، مما يمنحنا القدرة على الشعور بالأشياء وحل المشكلات معا.
الذكاء الاصطناعي ستحل المشاكل من خلال التركيز على النتائج. مثال نموذجي هو السيارات ذاتية القيادة. ماذا لو كانت جميع النتائج سيئة؟
ستختار السيارة ذاتية القيادة الأقل سوءا من بين جميع النتائج الممكنة. إذا كان الذكاء الاصطناعي اختيار مناورة ملاحية إما أن تقتل “سائق الراكب” أو تقتل شخصين في الطريق الذي عبر بضوء أحمر ، فيمكنك إثبات الحالة في كلا الاتجاهين.
يمكنك أن تفكر في أن المشاة ارتكبوا خطأ. لذا فإن الذكاء الاصطناعي ستصدر حكما أخلاقيا وتقول دعونا نقتل المشاة. أو الذكاء الاصطناعي يمكن أن نقول دعونا نحاول قتل أقل عدد ممكن من الناس. لا توجد إجابة صحيحة.
ماذا عن القضايا المحيطة بالتنظيم؟
فيغيروا: أعتقد أنه يجب تنظيم الذكاء الاصطناعي. من الممكن إيقاف التطوير أو الابتكار حتى يكون لدينا تقييم واضح للتنظيم. لن نحصل على ذلك. نحن لا نعرف بالضبط ما الذي ننظمه أو كيفية تطبيق اللوائح. لذلك علينا أن نخلق طريقة جديدة للتنظيم.
أحد الأشياء التي يقوم بها مطورو OpenAI بشكل جيد هو بناء تقنيتهم على مرأى من الجميع. يمكن للمطورين العمل على تقنيتهم لمدة عامين آخرين والتوصل إلى تقنية أكثر تطورا. لكنهم قرروا فضح الاختراق الحالي للعالم ، حتى يتمكن الناس من البدء في التفكير في التنظيم ونوع التنظيم الذي يمكن تطبيقه عليه.
كيف تبدأ عملية التقييم؟
فيغيروا: كل شيء يبدأ بسؤالين. الأول هو ، ما هو التنظيم؟ إنه توجيه تصدره وتحتفظ به سلطة. ثم السؤال الثاني هو، من هي السلطة – كيان لديه القدرة على إعطاء الأوامر، واتخاذ القرارات، وإنفاذ تلك القرارات؟
يرتبط بهذين السؤالين الأولين سؤال ثالث: من أو ما هم المرشحون؟ يمكن أن يكون لدينا حكومة محلية في بلد واحد أو كيانات وطنية منفصلة مثل الأمم المتحدة التي قد تكون عاجزة في هذه الحالات.
عندما يكون لديك تنظيم ذاتي للصناعة ، يمكنك إثبات أن أفضل طريقة للذهاب. ولكن سيكون لديك الكثير من الجهات الفاعلة السيئة. يمكن أن يكون لديك منظمات مهنية ، ولكن بعد ذلك تدخل في المزيد من البيروقراطية. في غضون ذلك ، يتحرك الذكاء الاصطناعي بسرعة مذهلة.
ما رأيك في أفضل نهج؟
فيغيروا: يجب أن يكون مزيجا من الحكومة والصناعة والمنظمات المهنية وربما المنظمات غير الحكومية التي تعمل معا. لكنني لست متفائلا جدا ، ولا أعتقد أنهم سيجدون حلا جيدا بما يكفي لما هو قادم.
هل هناك طريقة للتعامل مع الذكاء الاصطناعي و ML لوضع تدابير أمان مؤقتة إذا تجاوز الكيان الإرشادات؟
فيغيروا: يمكنك دائما القيام بذلك. لكن أحد التحديات هو عدم القدرة على التنبؤ بجميع النتائج المحتملة لهذه التقنيات.
في الوقت الحالي ، لدينا جميع اللاعبين الكبار في الصناعة – OpenAI و Microsoft و Google – يعملون على المزيد من التكنولوجيا الأساسية. أيضا ، تعمل العديد من شركات الذكاء الاصطناعي مع مستوى آخر من التجريد ، باستخدام التكنولوجيا التي يتم إنشاؤها. لكنهم أقدم الكيانات.
لذلك لديك دماغ وراثي لفعل ما تريد. إذا كانت لديك الأخلاقيات والإجراءات المناسبة ، فيمكنك تقليل الآثار الضارة وزيادة السلامة وتقليل التحيز. لكن لا يمكنك القضاء على ذلك على الإطلاق. علينا أن نتعايش مع ذلك ونخلق بعض المساءلة واللوائح. إذا حدثت نتيجة غير مرغوب فيها ، يجب أن نكون واضحين بشأن من يتحمل المسؤولية. أعتقد أن هذا هو المفتاح.
ما الذي يجب القيام به الآن لرسم مسار الاستخدام الآمن ل الذكاء الاصطناعي و ML؟
فيغيروا: الأول هو نص فرعي أننا لا نعرف كل شيء ونقبل أن العواقب السلبية ستحدث. على المدى الطويل ، الهدف هو أن تفوق النتائج الإيجابية السلبيات بكثير.
ضع في اعتبارك أن الثورة الذكاء الاصطناعي لا يمكن التنبؤ بها ولكن لا يمكن تجنبها في الوقت الحالي. يمكنك إثبات أنه يمكن وضع اللوائح موضع التنفيذ ، وقد يكون من الجيد إبطاء الوتيرة والتأكد من أننا آمنون قدر الإمكان. تقبل أننا سنعاني من بعض العواقب السلبية على أمل أن تكون الآثار طويلة المدى أفضل بكثير وستعطينا مجتمعا أفضل بكثير.