Please reload

التدوينات الحديثة

مشكلة تكنلوجيا التعليم في تعلم الآلة والمسؤولية

 

 الكاتب: تينا نازرين

 

 

من Formula 1 إلى Yelp، تبحث الصناعات في جميع المجالات عن طرق لتطبيق التعلم الآلي في عملهم. حتى الأكاديميون ومحللو جولدمان ساكس حاولوا استخدامه للتنبؤ بالفائز بكأس العالم. (أُثبتت هذه التنبؤات أنها خاطئة جدًا).

 

ولكن كيف يسير امر التعلم الآلي في التعليم –وكيف يؤثر على الطلاب والمعلمين وأولياء الأمور، والشركات التي تبني أدوات التكنولوجيا لدعم التعليم والتعلم؟

 

في اجتماع SF Edtech، الذي استضافته EdSurge في 10 يوليو، اجتمع أربعة من أعضاء اللجنة لمناقشة التحديات المتعلقة بنشر التعلم الآلي في الفصل الدراسي وقاعة الاجتماعات. وكان المتحدثون هم كارلوس إسكابا (المدير الرئيسي، تطوير الأعمال في مجال الذكاء الاصطناعي، خدمات أمازون ويب)، وفيفيان مينغ (المؤسس والرئيس التنفيذي لشركة Socos Labs)، وماثيو راميريز (مدير إدارة المنتج، أدوات الكتابة في تعلم الذكاء الاصطناعي، Chegg) وأندرو ساذرلاند (CTO) والشريك المؤسس، Quizlet).

 

 

 

مصدر الصورة: unsplash

 

مشكلة البيانات

 

ما يجعل التعلم الآلي يعمل هو البيانات - ولكن يمكن أن تكون البيانات متحيزة بطرق إشكالية يمكن أن تؤدي إلى نتائج مضللة ومقلقة. (أشارت مينغ إلى الوقت الذي صنفت فيه خوارزميات التعرف على الصور من Google الأشخاص السود على أنهم غوريلا.)

 

وقالت مينغ: "عندما تستعمل تلك البيانات في الإعلانات، من يهتم إذا واجهت بعض الأخطاء." "عندما تستعملها في مجال التشخيص أو التعليم أو التوظيف، فمن المحتمل أن تكون قد دمرت حياة شخص ما. لديك التزام أخلاقي حقيقي لفهم سبب قيام نظامك بالتوصيات التي يقدمها. "

 

تقول مينغ إن التعليم والتنمية البشرية معقدة، ولا توجد حتى الآن كتلة من بيانات التدريب التي تربط ما تقوم به الأنشطة التي يقوم بها طفل يبلغ من العمر أربع سنوات مع والديه في المساء إلى ما ستكون عليه نتائج حياته. وحذرت من أنه في مجموعات البيانات المعقدة، خاصة تلك التي تحتوي على الكثير من البيانات البشرية، فإن عدد الارتباطات الزائفة التي لا تعني في الواقع أي شيء غالباً ما تكون أكثر شيوعاً من دليل على علاقات سببية يمكن الاعتماد عليها.

 

أضاف إسكابا إذا كان هناك شيء خاطئ في البيانات التي تستخدمها لدعم قرار، فسيكون هناك خطأ في القرار.

 

يجب أن تكون البيانات ممثلة للمجموعة الذين تحاول خدمتهم، ويجب أن تكون هناك بيانات كافية من تلك المجموعة. وقال أيضاً: "من السهل جدًا ارتكاب خطأ في إنشاء نموذج حيث تحاول تعميم حل لمشكلة ما، وليس لديك في الواقع بيانات كافية من بعض الخصائص الديمغرافية التي تحاول معالجتها".

 

 بيانات رائعة ومسؤولية رائعة (وتكاليف)

 

إذن ما الذي يمكن لشركات التعليم عمله للحد من التحيز في أدواتها؟

 

نصح راميريز أن الشركة التي ترغب في بناء نظام التعلم الآلي الخاص بها يجب أن تجد "مصدراً أساسياً للحقيقة" الذي يوجه كيف تقوم الشركة ببناء أدواتها.

 

هناك جهد بشري موجود كذلك. أوصت مينغ الشركات بتوظيف خبراء المجال الذين يمكنهم بناء نظام التعلم الآلي. وما وجده راميريز مفيدًا لأداته الكتابية هو عبارة عن مفسرين بشريين يمكنهم استعراض البيانات وتحديد ما إذا كان الطالب سيتلقى اقتراحًا معينًا أو جزءًا من التعليقات أم لا.

 

يمكن أن تساعد تكنولوجيا تعلم الآلة البشر في أداء هذه الأنواع من المهام. "أعتقد أن المنصات المساعدة للذكاء الاصطناعي رائعة للغاية ومثيرة للاهتمام حقًا، لأن هناك الكثير من الخبراء البشريين الذين يمكنهم القيام بهذا النوع من العمل، والذين يتوقون للقيام به، وهم مؤهلون للغاية، قال راميريز.

 

لكن الحصول على هذا الدعم ليس رخيصًا. بالنسبة لأولئك الذين قاموا بزيادة رأس المال الاستثماري، يقول راميريز إنه من المعقول أن نتوقع على الأقل نصف هذه الأموال أن تذهب نحو البحث والتطوير في مجال الذكاء الاصطناعي - وتوظيف مهندسي التعلم الآلي. وأشار إلى أن الشركات تحتاج إلى تخصيص ميزانية أكبر لتوظيف هؤلاء الخبراء مقارنة بمطوري الويب العامين.

 

هذه التكاليف هي "شيء أعتقد أنه لا يتنبأ به الكثير من الناس الذين يدخلون هذه الصناعة، والتي أصبح أصحاب رؤوس الأموال الاستثماري الآن يتعلمون كيفية التنبؤ". ولهذا السبب، يرحب بالإعلانات باهظة الثمن التي تتعلق بالذكاء الاصطناعي بين دوائر رأس المال الاستثماري.

 

 ما يجب أن يسأله المعلمون؟

 

المستثمرون ليسوا الوحيدين الذين يندفعون إلى شركات التكنولوجيا الإلكترونية التي بدورها تعدهم بأن أدواتهم في مجال الذكاء الاصطناعي وأدوات التعلم الآلي تغيّر التعليم. وعلى نحو متزايد، يكون المعلمون والإداريون أيضًا هم الذين يتخذون القرارات حول التقنيات التي يجب استخدامها وشرائها.

 

إذن، كيف يمكنهم أن يقوموا باتخاذ خيارات ذكية — ولا يقعون في الحيل؟

 

يعتقد إسكابا أن على اختصاصيين التوعية أن يطلبوا من شركات الذكاء الاصطناعي البيانات التي يستخدمونها لتوليد نماذجهم، وكيفية تنظيم تلك البيانات، وعدد المرات التي يقومون بتحديث تلك النماذج وكيف يعرفون أن بياناتهم لا تنطوي على تحيز. كما ينبغي على اختصاصيو التوعية الطلب من الشركات بإقناعهم بأن بياناتهم تمثل السكان الذين يخدمونهم.

 

وقال ساذرلاند: إنه ينبغي أيضًا على اختصاصيي التوعية تجربة تكنولوجيا الذكاء الاصطناعي قبل إجراء عملية الشراء.

 

"إنه شيء واحد أن يكون لديك عرض تقديمي أو عرض ثابت حيث تقول،" أوه، أنتج هذا القرار لهذه النتيجة. ولكن هناك طريقة أخرى – أطلب من معلمً استخدام الأداة لمدة خمس دقائق، "قال سوذرلاند: إنهم يعرفون كل الأخطاء التي قد يرتكبها الطالب. فبالتالي يمكنهم تجربتها على الأداة، فإن لم تنجح، إذاً هي بالتالي لا تعمل. "

 

 

المصدر

Share on Facebook
Share on Twitter
Please reload

تابعنا
ابحث بالتاق
Please reload

الارشيف
  • Black Instagram Icon
  • Black Twitter Icon

Riyadh, Saudi Arabia

  • Black Instagram Icon
  • Black Twitter Icon

الرياض، المملكة العربية السعودية