طلب عرض

شارك

وظائف سيصنعها الذكاء الاصطناعي وفقا لدراسات عالمية جديدة تعرف عليها

 

يتيح دراسة عالمية عدة فئات جديدة من الوظائف البشرية الجديدة التي ستظهر بفضل الانتشار والنمو المتزايد لتقنيات الذكاء الاصطناعي. هذه الوظائف تتمحور بشكلٍ أساسي حول تسهيل عملية الأتمتة ، والتي بدورها ستقضي على الكثير من الوظائف في الوقت ذاته. الوظائف الجديدة التي نتحدث عنها هنا لا يبدو أنها موجودة بالفعل حتى الآن.

يتيح لدراسة قام بها PLC على أكثر من 1000 شركة كبيرة تستخدم بالفعل الذكاء الاصطناعي وتقنيات تعلُّم الآلة ، وإلا هناك فئات جديدة من الوظائف الفريدة من نوعها ستظهر عمّا قريب. هذه الوظائف ليست بديلة على الإطلاق ، تتطلب أنها تتطلب مهارات جديدة ومختلفة. ببساطة ، هذا المقال يناقش بشكل أساسي ثلاث فئات جديدة من الوظائف وهم: المُدربين- المدربون ، والمُفسرين- المُفسرون وأخيرًا الحراس أو مسؤولي الوقاية- المستدامون. مهمة البشر في هذه الوظائف هو يؤدي المهام التي تؤدي لها التكنولوجيا ، وضمان جودة عمل الآلات وسلاستها.

المُدربين – المدربين

هذه الفئة من الوظائف تتطلب وجود عمالة بشرية لتدريب أنظمة الذكاء الاصطناعي على العمل ، وتعزيز نموها. وفي نهاية المطاف ، يساعد هؤلاء المدربون في الأجزاء المتعلقة بالمعالجات اللغوية والترجمات ، عن طريق تقليل عدد الأخطاء باستخدام تقنيات مثل تعلُّم الآلة- التعلم الآلي. وفي الجانب الآخر ، يُدرّب هؤلاء الأشخاص خوارزميات الذكاء الاصطناعي على كيفية محاكاة السلوك البشري.

على سبيل المثال ، البوتس- برامج الروبوت الخاصة بخدمة العملاء (Chatbots) يتم تدريبها على كيفية اكتشاف التعقيدات خصائص الخصائص الدقيقة للإتصالات البشرية. تحاول شركة ياهو تعليم نظام المعالجة اللغوي الخاص بها حقيقة أن الناس لا يعنون بالضرورة المعنى الحرفي لما يقولونه ؛ وبناءًا على ذلك ، تمكن مهندسو ياهو من تطوير خوارزمية للتعرف على السخرية على مواقع التواصل الاجتماعي ومواقع الويب المختلفة بدقة تصل إلى الأقل لـ 80٪.

من الأشياء التي ستوضع في الحسبان أيضًا ، هي تعليم الآلات والأنظمة كيفية التعاطف مع المستخدمين ؛ وضعت شركة Koko نظام لتعليم الآلة يعمل على مساعدة أفراد المساعدة الرقميةين مثل Siri و Alexa وغيرهم على الإجابة على أسئلة المستخدمين بتعاطف وفهم عميق لما يعنونه. الهدف هو أن يكون النظام قادرًا على الحديث مع الناس حول مشكلة أو موقف حرج باستخدام كمية مناسبة من التفاهم والمودة ، وربما حتى حس الفكاهة.

وأثناء تطوير Koko ، يعمل المهندسون على تعزيز التجربة بشكل مستمر ، فكلما حدث أي رد غير لائق ، يقوم المدرب بالمساعدة في تصحيح هذا الخطأ ، ومع مرور الوقت ، تتحسن خوارزمية التعلم الآلي بشكل أفضل وأكثر كفاءة.

المُفسرين – شرح

النوع الثاني من فرص وظائف العمل الجديدة التي نتحدث عنها ، هو وظائف للمفسرين وهم الأشخاص الذين يعملون على سد الفجوة المعرفية بين التقنيين المتخصصين وبين قادة الأعمال. سيساعد هؤلاء الأشخاص على توضيح الماهيات الأساسية لأنظمة الذكاء الاصطناعي. العديد من المدراء التنفيذيين وقادة الأعمال الآن غير مواكبين لما يحدث في عالم تعلُّم الآلة والذكاء الاصطناعي ، خصوصًا عندما تتعارض هذه الأحداث والتقنيات مع تصوراتنا كبشر من قبل.

الشركات التي تستخدم أنظمة مُتعلقة من أنظمة الذكاء الاصطناعي ستحتاج إلى وجود كوادر من الموظفين القادرين على تفسير ما يحدث بشكل بسيط وغير مُعقد ، حتى يمكن لغير المتخصصين فهمه. حينما يخطيء النظام أو تؤدي قراراته إلى عواقب سلبية غير مقصود ، يتدخل المحلل ويبدأ بدراسة الحالة فهم فهم أسباب ذلك السلوك مما يسمح بتصحيحه.

يوجد الآن العديد من التقنيات المفيدة للغاية مثل تقنية التفسيرات النموذجية المحلية- التفسيرات المحلية النموذجية التفسيرات الحادة LIME والتي تُفسّر الأساس المنطقي لعملية تنبؤ وتعلُّم الآلة. لا تهتم هذه التقنية بخوارزميات الذكاء الاصطناعي للعمل ، بل هي لا تحتاج إلى معرفة أي شيء عن العمل الداخلي.

الخلاصة هي أن التقنية ذاهبة إلى أماكن أبعد من تصوراتنا ، وحتى يمكننا لرواد الأعمال فهم هذا العالم ، يجب أن توظف الأشخاص الذين يفهمون هذه التقنيات من المتخصصين ، ومن ثم شرحها وتوضيحها من جوانب مختلفة غير الجانب التقني.

الحرّاس أو مسؤولي الجودة – المستدامون

الفئة الأخيرة من الوظائف الجديدة التي حددناها هي فئة الحراس- الاستدامة ووظيفتهم تتمحور حول ضمان أن نظم الذكاء الاصطناعي تعمل على النحو المرغوب ، وأن النتائج السيئة غير المقصودة تُعالج على نحو عاجل وفعّال. في إحدى استبيانات MIT Salon ، وجدوا أن أقل من ثلث الشركات لديها درجة عالية من الثقة في مدى دقة أنظمة الذكاء الاصطناعي ، وأقل من نصف هذه الشركات أيضًا لديها ثقة في سلامة وأمن تلك الأنظمة. وكما يبدو ، هذه الإحصاءات تُشير إلى قضايا أساسية تحتاج إلى حل من أجل استمرار استخدام تكنولوجيا الذكاء الاصطناعي ، وهنا يأتي دور مسؤولي الجودة الذين نتحدث عنهم.

في المستقبل ، ستصبح أنظمة الذكاء الاصطناعي أكثر تحكمًا في تلك- الحكم الذاتي. طوّر باحثان في معهد جورجيا للتكنولوجيا نموذجًا أوليًا يُطلق عليه اسم Quixote ، والذي يمكنه أن يتعلم عن الإخلاص من خلال قراءة قصص بسيطة. سيصبح النظام قادرًا على إعادة هندسة القيم الإنسانية من خلال قصص عن كيفية تفاعل البشر مع بعضهم البعض. على سبيل المثال ، هذا النظام تعلّم لماذا تعد السرقة فكرة سيئة ، وأن تسعى لتحقيق الكفاءة هو أمر جيّد طالما أنه لا يتعارض مع الاعتبارات الهامة الأخرى.

أنواع الوظائف التي نتحدث عنها هنا هي غير مسبوقة بالمرة ، وسوف تكون هناك حاجة لها على نطاق واسع في جميع الصناعات والمجالات المختلفة. وسيضع هذا التحول ضغوطًا هائلة على عمليات التدريب والتطوير التي تضطلع بها المنظمات ، وقد يقودنا أيضًا إلى التشكيك في العديد من الافتراضات التي قطعناها على المتطلبات التعليمية التقليدية للأدوار المهنية.