شريط محتوى متحرك
أخبارنا
مرحبًا بكم في موقعنا! استمتع بتجربة تصفح فريدة ومميزة. اكتشف أحدث الدروس في مكتبة الميديا! سارع بالاشتراك في نشرتنا البريدية للحصول على آخر التحديثات والعروض الحصرية. شكرًا لزيارتكم ونتطلع إلى تقديم مقالات وشروحات متميزة لكم.

مقال حصري مترجم أهم 10 اتجاهات في مجال الذكاء الاصطناعي وتعلم الآلة للتحضير لها في عام 2024

AnGeL

صاحب الامتياز
emtechmit_chen-f.webp

عندما تم إطلاق ChatGPT في نوفمبر 2022، شكل عام 2023 نقطة تحول في مجال الذكاء الاصطناعي. شهد العام الماضي تطورات ملحوظة، من منظار مفتوح المصدر نشط إلى نماذج متعددة الوسائط متطورة، وقد وضعت هذه التطورات الأساس لتقدم كبير في مجال الذكاء الاصطناعي.

ومع ذلك، بينما ما زال الذكاء الاصطناعي التوليدي يثير اهتمام العالم التقني، فإن المواقف تصبح أكثر تعقيدًا ونضجًا مع تحول تركيز المؤسسات من التجريب إلى المبادرات العملية في الواقع. تعكس اتجاهات هذا العام تعمقًا في الدقة والحذر في استراتيجيات تطوير ونشر الذكاء الاصطناعي، مع مراعاة الأخلاق والسلامة والمنظومة التنظيمية المتطورة.

إليك أهم 10 اتجاهات في مجال الذكاء الاصطناعي وتعلم الآلة للتحضير لها في عام 2024.

1. Multimodal AI​

الذكاء الاصطناعي متعدد الوسائط يتجاوز المعالجة التقليدية للبيانات وضع الواحد ليشمل أنواع متعددة من الإدخال، مثل النصوص والصور والأصوات - خطوة نحو تقليد القدرة البشرية على معالجة المعلومات الحسية المتنوعة.

قال مارك تشين، رئيس بحوث الجبهات في OpenAI، في عرضه في نوفمبر 2023 خلال مؤتمر EmTech MIT: "واجهات العالم متعددة الوسائط. نريد من نماذجنا أن ترى ما نرى وتسمع ما نسمع، ونريدها أيضًا أن تولد محتوى يستهوي أكثر من حاسة واحدة لدينا."

تمكنت القدرات متعددة الوسائط في نموذج GPT-4 من OpenAI البرمجيات من الاستجابة للإدخالات البصرية والصوتية. في حديثه، أعطى تشين مثالًا على التقاط صور لداخل الثلاجة وطلب من ChatGPT أن يقترح وصفة استنادًا إلى المكونات في الصورة. يمكن أن يشمل التفاعل حتى عنصرًا صوتيًا إذا تم استخدام وضع صوت ChatGPT لطرح الطلب بصوت مرتفع.

"على الرغم من أن معظم مبادرات الذكاء الاصطناعي التوليدي اليوم تعتمد على النصوص، إلا أن "القوة الحقيقية لهذه القدرات ستظهر عندما يتمكنون من دمج النص والمحادثة مع الصور والفيديو، وتقاطع كل ثلاثة منها، وتطبيقها على مجموعة متنوعة من الأعمال"، كما قال مات بارينغتون، قائد التكنولوجيا الناشئة في الأمريكتين في EY.

تطبيقات الذكاء الاصطناعي متعددة الوسائط في العالم الحقيقي متنوعة ومتزايدة. في مجال الرعاية الصحية، على سبيل المثال، يمكن للنماذج متعددة الوسائط تحليل الصور الطبية في ضوء تاريخ المريض والمعلومات الجينية لتحسين دقة التشخيص. على مستوى وظيفي، يمكن للنماذج متعددة الوسائط توسيع قدرات الموظفين المختلفين من خلال توسيع القدرات التصميمية والبرمجية الأساسية للأفراد بدون خلفية رسمية في تلك المجالات.

"لا يمكنني رسم شيء لإنقاذ حياتي"، قال بارينغتون. "حسنًا، الآن أستطيع. أنا جيد باللغة، لذلك ... يمكنني الاستفادة من قدرة مثل [إنشاء الصور]، وبعض تلك الأفكار التي كانت في رأسي والتي لم أستطع رسمها يدويًا، يمكن للذكاء الاصطناعي أن يقوم بها."

بالإضافة إلى ذلك، يمكن أن تعزز قدرات متعددة الوسائط النماذج من خلال توفير بيانات جديدة للتعلم. "مع تحسن نماذجنا في نمذجة اللغة وبدء تحقيق الحدود فيما يمكنها تعلمه من اللغة، نريد أن نوفر للنماذج مدخلات خامة من العالم بحيث يمكنها إدراك العالم بمفردها واستخلاص استنتاجاتها الخاصة من أشياء مثل الفيديو أو البيانات الصوتية"، قال تشين.

2. Agentic AI​

يمثل الذكاء الاصطناعي الوكالي تحولًا كبيرًا من الذكاء الاصطناعي الردِّي إلى الذكاء الاصطناعي الاستباقي. تعتبر وكلاء الذكاء الاصطناعي نظمًا متقدمة تظهر الاستقلالية والاستباقية والقدرة على التصرف بشكل مستقل. على عكس الأنظمة الذكاء الاصطناعي التقليدية، التي تستجيب بشكل رئيسي لمدخلات المستخدم وتتبع البرمجة المحددة مسبقًا، فإن وكلاء الذكاء الاصطناعي مصممة لفهم بيئتها، وتحديد الأهداف، والعمل لتحقيق تلك الأهداف دون تدخل بشري مباشر.

على سبيل المثال، في مجال مراقبة البيئة، يمكن تدريب وكيل ذكاء اصطناعي على جمع البيانات، وتحليل الأنماط، وبدء الإجراءات الوقائية استجابة للمخاطر مثل علامات مبكرة عن حريق في الغابات. وبالمثل، يمكن لوكيل ذكاء اصطناعي مالي إدارة محفظة استثمارية بنشاط باستخدام استراتيجيات تكييفية تتفاعل مع تغيرات السوق في الوقت الفعلي.

"كان عام 2023 عامًا للتحدث مع الذكاء الاصطناعي"، كتب عالم الحاسوب بيتر نورفيج، الزميل في معهد الذكاء الاصطناعي الموجه نحو الإنسان في جامعة ستانفورد، في تدوينة مدونة حديثة. "في عام 2024، سنرى القدرة على إنجاز المهام من خلال الوكلاء لأجلك. حجز مواعيد، تخطيط لرحلة، الاتصال بخدمات أخرى."

بالإضافة إلى ذلك، يمكن أن يفتح الجمع بين الذكاء الاصطناعي الوكيل والمتعدد الوسائط إمكانيات جديدة. في العرض المذكور أعلاه، قدم تشين مثالًا على تطبيق مصمم لتحديد محتوى صورة مرفوعة. في السابق، كان يتعين على شخص يرغب في بناء تطبيق من هذا القبيل أن يقوم بتدريب نموذج تعرف الصور الخاص به ومن ثم معرفة كيفية نشره. ولكن مع النماذج متعددة الوسائط والوكيلة، يمكن تحقيق كل ذلك من خلال الحوار الطبيعي باللغة.

"أعتقد حقًا أن المتعدد مع GPTs سيفتح أبواب تطوير تطبيقات الرؤية الحاسوبية بدون كود، بنفس الطريقة التي فتح بها الحوار الطبيعي أبواب تطوير العديد من التطبيقات القائمة على النصوص بدون كود"، قال تشين.

3. Open source AI​

بناء نماذج لغوية كبيرة ونظم ذكاء اصطناعي توليدي قوية أمر مكلف يتطلب كميات هائلة من الحوسبة والبيانات. ومع ذلك، يمكن لاستخدام نموذج مفتوح المصدر أن يمكّن المطورين من بناء على أعمال الآخرين، مما يقلل من التكاليف ويوسّع الوصول إلى التقنية. تكون تقنية الذكاء الاصطناعي مفتوحة المصدر متاحة للجمهور عمومًا، عادة مجانًا، مما يتيح للمؤسسات والباحثين المساهمة في وبناء الشفرات القائمة.

تشير بيانات GitHub من العام الماضي إلى زيادة ملحوظة في انخراط المطورين مع التقنيات الذكاء الاصطناعي، وخاصة التقنيات التوليدية. في عام 2023، دخلت مشاريع الذكاء الاصطناعي التوليدي إلى قائمة أكثر عشرة مشاريع شعبية عبر منصة استضافة الشفرات لأول مرة، مع مشاريع مثل Stable Diffusion وAutoGPT التي جلبت الآلاف من المساهمين لأول مرة.

في بداية العام، كانت النماذج التوليدية مفتوحة المصدر محدودة في العدد، وأداؤها كان غالبًا ما يتخلف عن الخيارات الخاصة مثل ChatGPT. ولكن توسّعت الساحة بشكل كبير خلال عام 2023 لتشمل منافسين مفتوحين المصدر قوية مثل نماذج Llama 2 لشركة Meta ونماذج Mixtral لشركة Mistral AI. قد يؤدي هذا إلى تغيير ديناميات المشهد الذكاء الاصطناعي في عام 2024 عن طريق توفير الوصول للكيانات الصغيرة وذات الموارد المحدودة إلى نماذج وأدوات ذكاء اصطناعي متطورة كانت في السابق خارج متناولها.

"إنه يمنح الجميع وصولًا سهلًا وديمقراطيًا نسبيًا، وهو رائع للتجريب والاستكشاف"، قال بارينغتون.

النهج مفتوح المصدر يمكن أيضًا أن يشجع على الشفافية والتطوير الأخلاقي، حيث أن وجود عدد أكبر من الأعين على الشفرة يعني احتمالًا أكبر للكشف عن التحيزات والأخطاء وثغرات الأمان. ومع ذلك، عبر الخبراء عن قلقهم بشأن سوء استخدام التقنيات المفتوحة المصدر في إنشاء المعلومات الخاطئة والمحتوى الضار الآخر. بالإضافة إلى ذلك، يعتبر بناء وصيانة المشاريع مفتوحة المصدر أمرًا صعبًا حتى للبرمجيات التقليدية، ناهيك عن النماذج الذكاء الاصطناعي المعقدة والتي تتطلب حوسبة مكثفة.

4. Retrieval-augmented generation​

على الرغم من أن أدوات الذكاء الاصطناعي التوليدية اعتمدت على نطاق واسع في عام 2023، إلا أنها لا تزال تعاني من مشكلة التهلوس: الردود الصوتية التي تبدو معقولة لكنها غير صحيحة بالنسبة لاستفسارات المستخدمين. هذا القيد قد عرقل اعتماد الشركات، حيث يمكن أن تكون التهلوسات في سيناريوهات الأعمال الحرجة أو التي تتعامل مع العملاء كارثية. ظهرت تقنية التوليد المحسن بالاسترجاع (RAG) كوسيلة لتقليل التهلوسات، مما قد يكون له تأثيرات عميقة على اعتماد الذكاء الاصطناعي في المؤسسات.

تجمع تقنية RAG بين توليد النص واسترجاع المعلومات لتعزيز دقة وصلة المحتوى الذي يتم توليده بواسطة الذكاء الاصطناعي. تمكّنها من الوصول إلى المعلومات الخارجية، مما يساعدها على إنتاج ردود أكثر دقة وفهمًا للسياق. كما يقلل تجاوز الحاجة إلى تخزين جميع المعرفة مباشرة في النموذج من حجم النموذج، مما يزيد من سرعته ويقلل التكاليف.

"يمكنك استخدام RAG لجمع الكثير من المعلومات غير المنظمة، مثل الوثائق وما إلى ذلك، وإدخالها إلى نموذج بدون الحاجة إلى ضبط دقيق أو تدريب مخصص للنموذج"، قال بارينغتون.

هذه الفوائد مغرية بشكل خاص لتطبيقات الشركات حيث يكون المعرفة الواقعية المحدثة أمرًا حاسمًا. على سبيل المثال، يمكن للشركات استخدام RAG مع النماذج الأساسية لإنشاء شرائط دردشة ومساعدين افتراضيين أكثر كفاءة وإيضاحًا.​

 

5. Customized enterprise generative AI models​

الأدوات الضخمة والمتعددة الأغراض مثل Midjourney وChatGPT جذبت أكبر اهتمام بين المستهلكين الذين يستكشفون التقنيات التوليدية للذكاء الاصطناعي. ولكن بالنسبة لحالات استخدام الأعمال، قد تثبت النماذج الصغيرة والضيقة الغرض أن تكون لها أكبر قدرة على البقاء، نظرًا للطلب المتزايد على أنظمة الذكاء الاصطناعي التي يمكن أن تلبي المتطلبات الفريدة.

على الرغم من أن إنشاء نموذج جديد من البداية هو إمكانية، إلا أنها مقترح تستهلك موارد كبيرة وقد تكون خارجة عن متناول الكثير من المؤسسات. لبناء نماذج ذكاء اصطناعي توليدية مخصصة، تقوم معظم المؤسسات بتعديل النماذج الحالية بدلاً من ذلك - على سبيل المثال، تعديل هيكلها أو ضبطها على مجموعة بيانات محددة للمجال. يمكن أن يكون هذا أرخص من بناء نموذج جديد من الصفر أو الاعتماد على استدعاءات API إلى نموذج لغة طويلة الذيل عام.

"الاستدعاءات إلى GPT-4 كواجهة برمجة تطبيقات، كمثال، هي مكلفة جدًا، سواء من حيث التكلفة أو من حيث التأخير - كم من الوقت يمكن أن يستغرق فعليًا لإرجاع نتيجة"، قال شين لوك، نائب الرئيس للذكاء الاصطناعي وتعلم الآلة في Workday. "نحن نعمل كثيرًا ... على تحسين الأداء حتى نحصل على نفس القدرة، لكنها تكون مستهدفة ومحددة جدًا. وبالتالي يمكن أن يكون النموذج أصغر بكثير وأكثر إدارة."

الميزة الرئيسية للنماذج المخصصة للذكاء الاصطناعي التوليدية هي قدرتها على تلبية احتياجات الأسواق النيشية والمستخدمين. يمكن بناء أدوات ذكاء اصطناعي توليدية مخصصة تقريبًا لأي سيناريو، بدءًا من دعم العملاء إلى إدارة سلسلة التوريد إلى مراجعة الوثائق. وهذا يكون ذات أهمية خاصة للقطاعات ذات المصطلحات والممارسات المتخصصة للغاية، مثل الرعاية الصحية والمالية والقانونية.

في العديد من حالات الاستخدام في الأعمال، تكون النماذج الطويلة الذيل الضخمة زيادة عن الحاجة. على الرغم من أن ChatGPT قد يكون متقدمًا لتطبيق الدردشة الخاص بالمستهلكين الذي تم تصميمه للتعامل مع أي استفسار، "إلا أنه ليس أحدث التطورات لتطبيقات الشركات الصغيرة"، كما قال لوك.

يتوقع بارينغتون أن يكون هناك اهتمامًا من الشركات بنطاق متنوع من النماذج في العام القادم مع بدء تقارب قدرات مطوري الذكاء الاصطناعي. "نتوقع، خلال العام أو العامين القادمين، أن يكون هناك درجة أعلى بكثير من المساواة عبر النماذج - وهذا أمر جيد"، كما قال.

على نطاق أصغر، لوك شاهد سيناريو مماثل يتكرر في Workday، حيث تقدم مجموعة من الخدمات الذكاء الاصطناعي للفرق للتجربة داخليًا. على الرغم من أن الموظفين بدأوا باستخدام خدمات OpenAI بشكل رئيسي، فقد رأى لوك تدريجيًا تحولًا نحو مزيج من النماذج من مقدمي خدمات مختلفين، بما في ذلك Google و AWS.

بناء نموذج مخصص بدلاً من استخدام أداة عامة جاهزة غالبًا ما يعزز الخصوصية والأمان، حيث يمنح المؤسسات مزيدًا من السيطرة على بياناتها. أعطى لوك مثالًا على بناء نموذج لمهام Workday التي تتضمن التعامل مع بيانات شخصية حساسة، مثل حالة الإعاقة وتاريخ الصحة. "هذه ليست أمورًا نرغب في إرسالها لطرف ثالث"، قال. "عملاؤنا عمومًا لن يشعروا بالراحة بهذا".

وبناءً على هذه الفوائد في الخصوصية والأمان، يمكن أن تدفع التشريعات الأكثر صرامة للذكاء الاصطناعي في السنوات القادمة المؤسسات لتركيز طاقاتها على النماذج الممتلكة، وفقًا للشرح الذي قدمته جيليان كروسان، الرئيسة في الإرشاد الخطري وقائدة قطاع التكنولوجيا العالمية في ديلويت.

"هذا سيشجع الشركات على التركيز أكثر على النماذج الخاصة الممتلكة، التي تكون محددة لنطاق معين، بدلاً من التركيز على هذه النماذج اللغوية الكبيرة التي تم تدريبها باستخدام البيانات من مختلف أنحاء الإنترنت وكل ما يترتب عليه ذلك."

6. Need for AI and machine learning talent​

تصميم وتدريب واختبار نموذج التعلم الآلي ليس بالأمر السهل، ولا سيما دفعه إلى الإنتاج وصيانته في بيئة تقنية معقدة في الشركات. ليس من المستغرب، بالتالي، أن الحاجة المتزايدة إلى مواهب الذكاء الاصطناعي والتعلم الآلي من المتوقع أن تستمر في عام 2024 وما بعده.

"السوق لا تزال ساخنة حقًا فيما يتعلق بالمواهب"، قال لوك. "من السهل جدًا الحصول على وظيفة في هذا المجال".

بشكل خاص، مع تزايد دمج الذكاء الاصطناعي والتعلم الآلي في عمليات الأعمال، هناك حاجة متزايدة إلى المحترفين القادرين على تعديل الفجوة بين النظرية والتطبيق. وهذا يتطلب القدرة على نشر ومراقبة وصيانة أنظمة الذكاء الاصطناعي في بيئات العمل الحقيقية - وهو اختصاص يشار إليه في كثير من الأحيان بـ MLOps، وهي اختصار لعمليات التعلم الآلي.

في تقرير أوريلي الأخير، أشار المستجيبون إلى برمجة الذكاء الاصطناعي، وتحليل البيانات والإحصاءات، وعمليات الذكاء الاصطناعي والتعلم الآلي كأهم ثلاث مهارات يحتاجها منظماتهم لمشاريع الذكاء الاصطناعي الإنشائي. ومع ذلك، فإن هذه الأنواع من المهارات نادرة. "سيكون ذلك واحدًا من التحديات المتعلقة بالذكاء الاصطناعي - أن تكون المواهب متاحة بسهولة"، قالت كروسان.

في عام 2024، يتوقع أن تسعى المنظمات إلى جذب المواهب ذات هذه الأنواع من المهارات - وليس فقط الشركات التكنولوجية الكبيرة. مع انتشار تكنولوجيا المعلومات والبيانات تقريبًا كوظائف أعمال، وارتفاع شعبية المبادرات في مجال الذكاء الاصطناعي، فإن بناء القدرات الداخلية للذكاء الاصطناعي والتعلم الآلي مستعد ليكون المرحلة التالية في التحول الرقمي.

كما أكدت كروسان أهمية التنوع في المبادرات المتعلقة بالذكاء الاصطناعي على كل مستوى، من الفرق التقنية التي تقوم ببناء النماذج حتى الهيئة الإدارية. "أحد المشكلات الكبيرة فيما يتعلق بالذكاء الاصطناعي والنماذج العامة هو كمية التحيز الموجودة في بيانات التدريب"، قالت. "ومالم يكن لديك فريق متنوع داخل منظمتك يتحدى النتائج ويتحدى ما تراه، فقد تنتهي بشكل محتمل في مكان أسوأ مما كنت عليه قبل الذكاء الاصطناعي."​
 

7. Shadow AI​

مع ازدياد اهتمام موظفي الوظائف المختلفة بالذكاء الاصطناعي الإبداعي، تواجه المؤسسات مشكلة الذكاء الاصطناعي الظلي: استخدام الذكاء الاصطناعي داخل المؤسسة دون موافقة صريحة أو رقابة من قسم تكنولوجيا المعلومات. هذه الاتجاهات تزداد انتشارًا مع توفر الذكاء الاصطناعي بشكل متزايد، مما يتيح لحتى العمال غير التقنيين استخدامه بشكل مستقل.

غالبًا ما ينشأ الذكاء الاصطناعي الظلي عندما يحتاج الموظفون إلى حلول سريعة لمشكلة أو يرغبون في استكشاف تكنولوجيا جديدة بسرعة أكبر مما تسمح به القنوات الرسمية. وهذا يحدث بشكل خاص للروبوتات الدردشة الذكاء الاصطناعي سهلة الاستخدام، التي يمكن للموظفين تجربتها في متصفحات الويب الخاصة بهم بسهولة - دون الحاجة إلى مراجعة من قبل قسم تكنولوجيا المعلومات وعمليات الموافقة.

على الجانب الإيجابي، استكشاف سبل استخدام هذه التقنيات الناشئة يظهر روحًا مبتكرة ومبادرة. ولكنه يحمل أيضًا مخاطر، نظرًا لأن المستخدمين النهائيين غالبًا ما يفتقرون إلى المعلومات ذات الصلة بالأمان وخصوصية البيانات والامتثال. على سبيل المثال، قد يقوم المستخدم بإدخال أسرار تجارية في نموذج لغوي كبير يتم الوصول إليه عبر الإنترنت دون أن يدرك أن ذلك يعرض هذه المعلومات الحساسة للغايات الخارجية.

"بمجرد أن يصبح شيء ما متاحًا في هذه النماذج العامة، فلن يمكنك سحبه مرة أخرى"، قال بارينغتون. "لذا هناك قلق وزاوية مخاطر مناسبة لمعظم المؤسسات، بغض النظر عن القطاع، للتفكير فيها بعناية".​

cloud_computing-shadow_it_negatively_impacts_orgs-f.webp
في عام 2024، ستحتاج المؤسسات إلى اتخاذ خطوات لإدارة الذكاء الاصطناعي الظلي من خلال إطارات الحوكمة التي تحقق توازنًا بين دعم الابتكار وحماية الخصوصية والأمان. يمكن أن يشمل ذلك وضع سياسات واضحة للاستخدام المقبول للذكاء الاصطناعي وتوفير منصات معتمدة، بالإضافة إلى تشجيع التعاون بين قادة تكنولوجيا المعلومات والأعمال لفهم كيفية رغبة الأقسام المختلفة في استخدام الذكاء الاصطناعي.

"الواقع هو أن الجميع يستخدمونه"، قال بارينغتون، مشيرًا إلى بحث شركة EY الأخير الذي وجد أن 90٪ من المشاركين يستخدمون الذكاء الاصطناعي في العمل. "سواء أعجب ذلك أم لا، فإن الناس يستخدمونه اليوم، لذا يجب عليك معرفة كيفية مواءمتهم مع الاستخدام الأخلاقي والمسؤول له".​

8. A generative AI reality check​

بينما تتقدم المؤسسات من الحماس الأولي المحيط بالذكاء الاصطناعي الإبداعي إلى التبني والدمج الفعلي، فمن المحتمل أن يواجهوا واقعًا في عام 2024 - مرحلة يشار إليها في كثير من الأحيان بـ "مرحلة حوض الإحباط" في دورة الهواجس لدى جارتنر.

"نحن بالتأكيد نرى تحولًا سريعًا من ما كنا نسميه بهذه المرحلة التجريبية إلى [السؤال]، 'كيف يمكنني تشغيل هذا بمقياس واسع عبر شركتي؟'"، قال بارينغتون.

مع تضاؤل الحماس الأولي، تواجه المؤسسات قيود الذكاء الاصطناعي الإبداعي، مثل جودة الإخراج، والمخاوف المتعلقة بالأمان والأخلاق، وصعوبات التكامل مع الأنظمة وسير العمل القائمة. غالبًا ما يتم تقدير تعقيد تنفيذ وتوسيع الذكاء الاصطناعي في بيئة الأعمال بشكل غير كاف، ويمكن أن تكون المهام مثل ضمان جودة البيانات، وتدريب النماذج، وصيانة أنظمة الذكاء الاصطناعي في الإنتاج أكثر تحديًا مما كان متوقعًا في البداية.

"في الواقع، ليس من السهل بناء تطبيق ذكاء اصطناعي إبداعي وتنفيذه في منتج حقيقي في إعداد حقيقي للمنتج"، قال لوك.

النقطة المشرقة في هذه التجارب الصعبة، على الرغم من أنها غير مريحة في المدى القصير، يمكن أن تؤدي في المدى البعيد إلى رؤية أكثر صحة وتوازنًا. ستتطلب المرور بعيدًا عن هذه المرحلة تعيين توقعات واقعية للذكاء الاصطناعي وتطوير فهم أكثر تعقيدًا لما يمكن وما لا يمكن أن يفعله الذكاء الاصطناعي. يجب أن تكون المشاريع المتعلقة بالذكاء الاصطناعي مرتبطة بوضوح بأهداف العمل وحالات الاستخدام العملية، مع وجود خطة واضحة لقياس النتائج.

"إذا كانت حالات الاستخدام فضفاضة للغاية وغير محددة بوضوح، فمن المحتمل أن هذا هو ما سيعرقلك أكثر"، قالت كروسان.
 

9. Increased attention to AI ethics and security risks​

انتشار الفيديوهات المزيفة العميقة والمحتوى المتطور الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي يثير الإنذارات بشأن الإمكانية في نشر المعلومات الخاطئة والتلاعب في وسائل الإعلام والسياسة، فضلاً عن سرقة الهوية وأنواع أخرى من الاحتيال. يمكن أيضًا أن يعزز الذكاء الاصطناعي فعالية هجمات الفدية والصيد الاحتيالي، مما يجعلها أكثر إقناعًا وأكثر قابلية للتكيف وأصعب في الكشف عنها.

على الرغم من أن هناك جهودا مبذولة لتطوير التقنيات لاكتشاف المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي، إلا أن ذلك يبقى تحديًا. تقنيات العلامات المائية الحالية للذكاء الاصطناعي يمكن تجاوزها بسهولة نسبيا، ويمكن أن تكون البرمجيات الحالية لاكتشاف الذكاء الاصطناعي عرضة للإيجابيات الكاذبة.

يسلط انتشار نظم الذكاء الاصطناعي أيضًا الضوء على أهمية التأكد من أنها شفافة وعادلة - على سبيل المثال، من خلال فحص بيانات التدريب والخوارزميات بعناية للتحيز. أكدت كروسان أن هذه الاعتبارات الأخلاقية والتوافقية يجب أن تتشابك في جميع مراحل تطوير استراتيجية الذكاء الاصطناعي.

"يجب أن تفكر، كمؤسسة ... في تنفيذ الذكاء الاصطناعي، ما هي الضوابط التي ستحتاج إليها؟"، قالت. "وهذا يبدأ في مساعدتك على التخطيط قليلاً للتنظيم حتى تفعل ذلك معًا. أنت لا تقوم بكل هذا التجربة مع الذكاء الاصطناعي وبعد ذلك [تدرك]، 'أوه، الآن نحتاج إلى التفكير في الضوابط.' أنت تفعل ذلك في نفس الوقت."

يمكن أن تكون السلامة والأخلاق سببًا آخر للنظر في النماذج الأصغر والمصممة بشكل أكثر تضييقًا، أشار لوك. "هذه النماذج الأصغر والمُضبَّبة والمحددة للمجال مجرد أقل قدرة من النماذج الكبيرة حقًا - ونحن نريد ذلك"، قال. "فهي أقل احتمالًا لأن تكون قادرة على إخراج شيء لا ترغب فيه لأنها ببساطة غير قادرة على القيام بالكثير من الأشياء."​

10. Evolving AI regulation​

لا يفاجئ أنه نظرًا لهذه المخاوف الأخلاقية والأمنية، يتشكل عام 2024 عامًا حاسمًا لتنظيم الذكاء الاصطناعي، حيث تتطور القوانين والسياسات والأطر الصناعية بسرعة في الولايات المتحدة وعلى الصعيد العالمي. ستحتاج المؤسسات إلى البقاء على اطلاع والقدرة على التكيف في العام القادم، حيث يمكن أن تكون المتطلبات المتغيرة للامتثال لها عواقب كبيرة على العمليات العالمية واستراتيجيات تطوير الذكاء الاصطناعي.

يمثل قانون الذكاء الاصطناعي في الاتحاد الأوروبي، الذي توصل أعضاء البرلمان الأوروبي والمجلس الأوروبي إلى اتفاق مؤقت بشأنه مؤخرًا، أول قانون شامل للذكاء الاصطناعي في العالم. إذا تمت الموافقة عليه، سيحظر بعض استخدامات الذكاء الاصطناعي، وسيفرض التزامات على مطوري الأنظمة الذكاء الاصطناعي عالية المخاطر، وسيتطلب الشفافية من الشركات التي تستخدم الذكاء الاصطناعي الإبداعي، مع إمكانية تحرير غرامات متعددة الملايين من الدولارات عند عدم الامتثال. وليس فقط التشريعات الجديدة التي يمكن أن تؤثر في عام 2024.

"من المثير للاهتمام، القضية التنظيمية التي أراها قد تكون لها أكبر تأثير هي GDPR - القانون الأوروبي لحماية البيانات العامة - بسبب الحاجة إلى التصحيح والمحو، والحق في أن يُنسى، مع النماذج الكبيرة العامة للغة"، قالت كروسان. "كيف يمكن التحكم في ذلك عندما يتعلمون من كميات هائلة من البيانات، وكيف يمكنك التأكد من أنك قد نُسيت؟"

مع قانون الذكاء الاصطناعي، يمكن أن يضع الاتحاد الأوروبي نفسه كمنظم عالمي للذكاء الاصطناعي، مما قد يؤثر بشكل كبير على معايير استخدام وتطوير الذكاء الاصطناعي عالميًا. "إنهم بالتأكيد في مقدمة حيث نحن في الولايات المتحدة من منظور التنظيم الخاص بالذكاء الاصطناعي"، قالت كروسان.

"الولايات المتحدة ليست لديها حتى الآن تشريعات فيدرالية شاملة مقارنة بقانون الاتحاد الأوروبي للذكاء الاصطناعي، لكن الخبراء يشجعون المؤسسات على عدم الانتظار للتفكير في الامتثال حتى تكون المتطلبات الرسمية سارية المفعول. في EY، على سبيل المثال، "نشارك مع عملائنا للتفوق عليها"، قال بارينغتون. خلاف ذلك، قد يجد الأعمال أنفسها تلعب دور الاصطياد عندما تدخل التنظيمات حيز التنفيذ.

بعيدًا عن تأثيرات سياسات الاتحاد الأوروبي، يظهر النشاط الأخير في السلطة التنفيذية الأمريكية أيضًا كيف يمكن أن يتحقق التنظيم للذكاء الاصطناعي في الولايات المتحدة. فأمر الرئيس جو بايدن التنفيذي في أكتوبر نفذ توجيهات جديدة، مثل مطلب مشاركة مطوري الذكاء الاصطناعي نتائج اختبار السلامة مع حكومة الولايات المتحدة وفرض قيود لحماية ضد مخاطر الذكاء الاصطناعي في تصنيع المواد البيولوجية الخطيرة. وصدرت وكالات فيدرالية متعددة أيضًا إرشادات تستهدف قطاعات محددة، مثل إطار إدارة مخاطر الذكاء الاصطناعي الذي أصدرته NIST وبيان للمفوضية الفيدرالية للتجارة تحذر فيه الشركات من إدلاء تصريحات زائفة حول استخدام منتجاتها للذكاء الاصطناعي."

"ما يعقد الأمور أكثر هو أن عام 2024 هو عام انتخابي في الولايات المتحدة، وقد تظهر القائمة الحالية للمرشحين الرئاسيين مجموعة واسعة من المواقف بشأن أسئلة سياسات التكنولوجيا. يمكن لإدارة جديدة نظريًا تغيير النهج الذي يتبعه السلطة التنفيذية في الولايات المتحدة في الرقابة على الذكاء الاصطناعي من خلال عكس أو تعديل أمر بايدن التنفيذي والتوجيهات غير الرسمية للوكالات."​
 
أعلى أسفل