أربعة مخاطر للذكاء الاصطناعي التوليدي يتعين على كل شركة أن تكون على دراية بها

5 دقائق
شكل المخ، موضَّح باستخدام تصميم لوحة دوائر زرقاء على خلفية سوداء.

وفقًا لتقرير صُدر مؤخرًا عن شركة McKinsey، فإن "الذكاء الاصطناعي التوليدي من شأنه أن يغير هيكل تقسيم العمل" وسيعمل على "تعزيز إنتاجية العمل بصورة هائلة في مختلف قطاعات الاقتصاد". في وقت كتابة هذا التقرير، حُددت 63 حالة استخدام للذكاء الاصطناعي التوليدي تغطي 16 وظيفة عمل، ما يمنح فكرة عن مستوى التحول المحتمل حدوثه. وبطبيعة الحال، تُعد الإنتاجية والكفاءة والفعالية الغايات المنشودة للمؤسسات التي ترغب في تحقيق نجاح على المدى الطويل في هذا العالم المتغير، لذا لاقت هذه الأخبار حماسًا كبيرًا.

ومع ذلك، وسط هذا الحماس، هناك كلمة واحدة تفرض نفسها مرارًا وتكرارًا وهي: المخاطرة. وعلى أي حال، لا يزال الذكاء الاصطناعي التوليدي حديث العهد. ولذا، يتعين على الشركات أن تفكر بعناية في كيفية نشر هذه التكنولوجيا في مؤسساتها - وما النتائج المحتملة لذلك. يقول كوينتين تايلور، كبير مديري قسم أمن المعلومات والاستجابة العالمية لدى Canon EMEA: "يعتمد ذلك على القدرة على تحمل المخاطرة والرغبة في المخاطرة". "على سبيل المثال، هل نحن على استعداد لقبول الذكاء الاصطناعي الذي يرد على استفسارات العملاء، في حين أنه يُخطئ في بعض الأحيان؟" وهذه مجرد طريقة واحدة يمكن من خلالها استخدام الذكاء الاصطناعي التوليدي لتعزيز الكفاءة، ولكن كما يُشير كوينتين، ما المخاطر التي تضر السمعة التي تنشأ عندما يتلقى عميل معلومات غير صحيحة؟ يعتمد الأمر إلى حد كبير على المنتج والعميل، وهذا هو التحدي الكبير الذي تواجهه الشركات – وهو أن يكون لديها فهم واضح للأماكن التي يمكن للذكاء الاصطناعي التوليدي أن يُضيف فيها قيمة حقيقية، وتلك التي لا يوجد فيها مستوى من المخاطرة المقبولة. ومن أجل البدء في إصدار هذه الأحكام، من الضروري أن نفهم جيدًا طبيعة هذه المخاطر.

حماية الملكية الفكرية والمعلومات الحساسة تجاريًا

هذا هو المجال الذي تبادر معظم المؤسسات إلى معالجته على الفور، وتفرض بعضها حظرًا شاملاً على استخدام أي أدوات وخدمات خاصة بالذكاء الاصطناعي التوليدي لحماية خصوصية الشركات والحفاظ عليها. وبصورة أساسية، كل ما تُدخله في أي من نماذج الذكاء الاصطناعي التوليدي يصبح بيانات تدريبية. لذا، إذا طلبت منه كتابة خطاب لإصدار منتج جذاب، مع تقديم كل تفاصيل هذا المنتج في الطلب، فهذا يعني أنك رفعت في الأساس معلومات الشركة المهمة والمحظورة إلى أداة مستخدمة عالميًا. فإذا كانت شركتك تعتمد بشكل كامل على ملكيتها الفكرية، فهذا مستوى من المخاطرة غير المقبولة. يقول كوينتين: "من ناحية أخرى، إذا استخدمت الذكاء الاصطناعي التوليدي لكتابة 300 وصف مختلف قليلاً للمنتجات الحالية، فهل يُمثل ذلك مشكلة؟ على الأغلب لا." فثمة منظور آخر يجب وضعه في الاعتبار وهو الجهود المبذولة لمنع حدوث مشاكل مقابل النتائج التي يتم الحصول عليها: "هل يؤدي كبت استخدام الذكاء الاصطناعي التوليدي إلى الاستفادة من وقتنا بشكل فعّال؟ هل يمكننا حظر الوصول إليه بشكل كامل بينما يتم إصدار آلاف الأدوات الجديدة كل يوم؟"

شخصان يجلسان على مكتبهما في أحد المكاتب أمام بعضهما، كلاهما ينظر إلى شاشات كبيرة في أثناء العمل على أجهزة الكمبيوتر الخاصة بهما.

عندما تستخدم فرقك الذكاء الاصطناعي التوليدي لمساعدتهم في مهامهم اليومية، من المهم للشركة التأكد من عدم رفعهم معلومات حساسة تجاريًا.

صنع القرار والتحيّز والتواصل

مَن المسؤول؟ بالطبع تبدأ عملية صنع القرار من المناصب الإدارية، ولكن عندما يتوصل مجلس الإدارة إلى النتائج بمساعدة أدوات الذكاء الاصطناعي التوليدي، يجب أن تكون العملية واضحة تمامًا. وعلى نحو مماثل، من المهم أخذ التحيّز في الحسبان عند استخدام الذكاء الاصطناعي التوليدي كأداة يمكن من خلالها تحليل الخيارات لتعزيز الإنتاجية والربحية. من المفهوم على نطاق واسع أن البيانات التدريبية يجب أن تكون ضخمة حتى تكون نماذج الذكاء الاصطناعي عادلة ولو عن بُعد، ولكن حتى مع ذلك، فهناك تحيّز. ولهذا السبب، تختار كثير من المؤسسات عدم استخدام مثل هذه الأدوات في مجالات صنع القرار الرئيسية، وغالبًا ما يُشار إلى التوظيف باعتباره مجالاً إشكالياً. ويؤكد كوينتين على ذلك قائلاً: "يجب عليك دائمًا أن تفهم السياق الذي يتم فيه اتخاذ أي قرارات مدعومة بالذكاء الاصطناعي". "ولابد من إبلاغ بقية المؤسسة بهذا بوضوح، وإلا فإنك تخاطر بوجود ارتباك واسع النطاق وانعدام الثقة في الإدارة". وهذا مهم بشكل خاص عندما تفكر في عدد المرات التي تتطلب فيها القرارات التنظيمية "التحري"، لفهم الأساس الذي غالباً ما يكون دقيقاً للغاية والذي يتم على أساسه اتخاذ الإجراءات اللازمة.

انتهاك حقوق الملكية

في الوقت الحالي، ثمة بعض الدعاوى القضائية البارزة للغاية الجارية حيث يعتقد الأطراف أن عملهم الإبداعي قد استُخدم لتدريب أحد نماذج الذكاء الاصطناعي من دون موافقتهم. وثمة القليل من المخاوف الخطيرة بشأن الذكاء الاصطناعي التوليدي مقارنة بتلك التي تتعلق بشرعية المحتوى الذي ينشئه. نعم، ثمة بعض الأدوات الجديدة (مثل Adobe Firefly) التي لم يتم تدريبها إلا على البيانات المملوكة قانونًا، ولكن بالنسبة إلى الآخرين، لا يوجد وضوح يُذكر في الوقت الحالي بشأن مدى أمان استخدامها، على سبيل المثال، لإنشاء مجموعة من الصور لحملة على وسائل التواصل الاجتماعي أو تصميم هوية جديدة لعلامة تجارية. عند العمل مع جهات خارجية في مثل هذه الأنشطة، يرى كوينتين قيمة في "تعديل العقود أو تحديثها للتخفيف من حدة المخاطر والتأكد من وجود توجيهات وسياسات واضحة داخليًا".

عندما يعطي الذكاء الاصطناعي معلومات غير صحيحة

ربما تكون قد سمعت مصطلح "الهلوسة" المُشار إليه بشكل متكرر إلى حد ما في سياق الذكاء الاصطناعي التوليدي. بعبارة أبسط، يحدث ذلك عندما يُصدر أحد نماذج الذكاء الاصطناعي استجابة خاطئة أو غير واقعية. يمكن أن يكون شيئًا سخيفًا، مثل كلمة مختلقة تمامًا أو جملة لا معنى لها. أو قد يقدم بثقة معلومات زائفة، وهو ما حدث لمحامييّن حيث قدما أدلة خاصة بقضية في المحكمة وتبيّن أنها زائفة تمامًا. وتبيّن لاحقًا أن هذه الأدلة قد تم إنشاؤها بواسطة ChatGPT وتم إصدار حكم على المحامييّن بدفع غرامة قدرها 5000 دولار أمريكي. يعترف خبراء الذكاء الاصطناعي بالمشكلة ويعمدون إلى تحقيق تقدم، ولكن في الوقت نفسه يُشكل هذا مجالاً ذا خطورة استثنائية بالنسبة إلى المؤسسات ورؤسائها. يؤكد كوينتين على "التأكد من الحقائق، التأكد من الحقائق، التأكد من الحقائق." "يُمثل هذا أحد الأدوار الرئيسية للبشر عند استخدام الذكاء الاصطناعي لإنشاء محتوى أساسي. ويجب أن نكون محررين دقيقين وفعّالين.". كما يحذر من مخاطر استخدام أدوات الذكاء الاصطناعي التوليدي الآلية للإشراف على وسائل التواصل الاجتماعي والاستجابة عليها. "يمكن أن تبدأ الأداة الآلية التي تستخدمها في تقديم إجابات قد تكون صحيحة من الناحية النظرية - ولكن ليس في سياق السؤال الذي طُرح عليها".

وبصفة عامة، يشعر كوينتين بالإيجابية لأن العديد من المؤسسات ستتبنى الذكاء الاصطناعي بصفته "ميزة أساسية" مدمجة في الخدمات والأدوات التي تستخدمها بالفعل ومقدمة من خلالها. وفي هذا الصدد، يتم بالفعل تخفيف الكثير من المخاطر بإبرام العقود مع جهات خارجية وبنشر حلول من شركاء معروفين ومرموقين ومحل ثقة. ويوضح قائلاً: "ربما تستخدم إحدى الشركات الذكاء الاصطناعي للبحث في رسائل البريد الإلكتروني والبحث عن عمليات التصيّد الاحتيالي". "هذا ليس شيئًا من المحتمل أن يقوموا ببرمجته أو تطويره على وجه التحديد، ولكنهم سيستفيدون من استخدام الأدوات التي تتضمن هذه الخدمة." في نهاية المطاف، تتضمن أي شركة قدرًا كبيرًا من إدارة المخاطر، ولا تختلف الفرص الجديدة التي يقدمها الذكاء الاصطناعي التوليدي في هذا الصدد.

ذات صلة