گیاهی ترین گیاهی ترین AnzanDigital فروشگاه
الرئيسية / برمجيات تخصصية / جديد غوغل هذا العام

جديد غوغل هذا العام

التجديد سمة الناجحين، والنجاح يسبقه محاولات فاشلة عديدة، ولايصلنا عبر قنوات الإعلام  سوى المحاولات الناجحة طبعا. أما اسرار النجاح فستبقى أسرارا: مقتطفا منها

1-

لم يعد يفاجئنا خبر تحيز الذكاء الاصطناعي، إذ يبرمج الناس تحيزاتهم الاجتماعية في الخوارزميات بشكل دائم دون إدراك منهم، ويمكن لخوارزمية التعرف على الصور مثلًا تعريف النساء المرتديات لثياب بيضاء فضفاضة بأنهن عرائس، إلا أنها تفشل في تمييز النساء الهنديات المرتديات لساري الزفاف.

ولحل المشكلة أطلقت شركة جوجل تحديًا مفتوحًا؛ سمته مسابقة الصور الشاملة، يهدف لتطوير مجموعات بيانات وخوارزميات، تؤدي بنا إلى ذكاء اصطناعي يتعرف على أشخاص وعادات أكثر تنوعًا؛ وفقًا لمجلة إم آي تي تكنولوجي ريفيو الأمريكية.

وبدأت الفرق المتنافسة قبل ثلاثة أشهر في تدريب خوارزميات الكشف عن الصور لتكون أكثر شمولًا من الناحية الثقافية، من خلال استخدام أسماء أكثر تفصيلًا للصور المستخدمة أثناء التدريب بالإضافة لتحسين الخوارزميات.

ووُضِعت الخوارزميات الجديدة تحت اختبار مجهد للتعرف على صور مرسلة من متطوعين في جميع أنحاء العالم، وتمكنت بعض الخوارزميات على سبيل المثال من تحديد المرأة المتزوجة على أنها عروس بدلًا من وصفها بأنها «شخص» متخلصة من حكمها القديم الافتراضي المبهم والأقل فائدة، وكسبت الخوارزميات الجديدة ذات التصنيفات الدقيقة نقاطًا أكثر؛ وفقًا لمقاييس جوجل.

تقدّم ضروري

وسيحصل كل من الفرق الخمسة الأولى في لائحة المتصدرين، وعلى رأسهم بافل أوستياكوف، مهندس التعلم العميق في شركة سامسونج، على جائزة بقيمة 5 آلاف دولار، وهي مكافئة صغيرة تساعد على حل مشكلة كبيرة في أبحاث الذكاء الاصطناعي.

وستقدم الفرق الفائزة أعمالها في مؤتمر نظم معالجة المعلومات العصبية الثاني والثلاثين خلال الأيام القليلة المقبلة؛ وهو أحد أهم المؤتمرات الدولية للذكاء الاصطناعي.

وعلى الرغم من أن الفرق الخمسة لم يبنِ أي منها خوارزمية دقيقة أو غير متحيزة تمامًا. إلا أن أحدها استطاع مثلًا بناء خوارزمية يمكنها تحديد عروس هندية بشكل صحيح. وتنبع أهمية المسابقة من أنها تشكل خطوة مهمة في الاتجاه الصحيح نحو بناء ذكاء اصطناعي شامل يمكن أن يخدم جميع أنواع البشر.

خطوات سابقة لمواجهة الظاهرة

وليست المسابقة البادرة الأولى من جوجل، إذ تولي الشركة الرائدة في مجال تقنيات الذكاء الاصطناعي أهمية لمواجهة الظاهرة، وكانت قد أضافت في أكتوبر/تشرين الأول 2018، إلى دوراتها التعليمية المكثفة حول التعلم العميق للآلات، دروسًا لتعليم الذكاء الاصطناعي الإنصاف والنزاهة.

ويثير تحيز الذكاء الاصطناعي قلق المتخصصين والخبراء حول العالم، بعد أن شهدنا خوارزميات عنصرية أو ضد المرأة بالإضافة لسلبيات أخرى، لكن الأكثر إزعاجًا أن يصل الأمر إلى التخوف من استمرار الذكاء الاصطناعي في تعلم التعصب بمفرده حتى لو أزلنا التحيز البشري بالكامل من بياناته.

ويُعرف تحيز الذكاء الاصطناعي بالتحيز الخوارزمي، ويحدث عندما يُغذى ببيانات مغلوطة تعكس تحيز المجتمع وأحكامه المسبقة.

بيانات ملوثة

والتعلم العميق للآلات هو فرع من فروع الذكاء الاصطناعي، يعتمد على تدريب الخوارزميات باستخدام مجموعات من البيانات، وهو عرضة لقضايا الانحياز، بسبب تأثر البيانات بالبشر بطريقة أو بأخرى؛ ومثال ذلك أن تتضمن مجموعة بيانات حول الاعتقالات، تحيزًا عرقيًا قائمًا على معتقدات ضباط الاعتقال.

وأطلقت جوجل منذ أعوام عدة، دورة تعلم الآلة إم إل سي سي لتكون جزءًا من برنامج تدريبي داخلي لمهندسيها على مدى يومين، وأتاحت الدورة للجميع عبر الإنترنت في فبراير/شباط 2018. وأضافت الشركةوحدة تدريبية جديدة إلى الدورة في أكتوبر/تشرين الأول 2018، ركزت فيها هذه المرة على الإنصاف عند بناء ذكاء اصطناعي.

ويتطلب التعلم العميق للآلات بنية معقدة تحاكي الشبكات العصبونية للدماغ البشري، بهدف فهم الأنماط، حتى مع وجود ضجيج، وتفاصيل مفقودة، وغيرها من مصادر التشويش. ويحتاج التعليم العميق للآلات، كمية كبيرة من البيانات وقدرات حسابية هائلة، توسع قدرات الذكاء الاصطناعي للوصول إلى التفكير المنطقي، ويكمن ذلك في البرنامج ذاته؛ فهو يشبه كثيرًا عقل طفل صغير غير مكتمل، ولكن مرونته لا حدود لها.

توجه عام لمحاربة التحيز

وكشفت دراسات سابقة وجود تحيز بات واضحًا لدى الذكاء الاصطناعي، وانضمت شركة مايكروسوفت حديثًا لكوكبة من الشركاتٍ تحاول إيجاد حلول لهذه المعضلة؛ ومنها شركة آي بي إم وشركة برايمر وفيسبوك، من خلال تطوير أداة تكشف خوارزميات ذكاء اصطناعي تعامل الناس وفقًا لعرقهم أو جنسهم.

وابتكرت مايكروسوفت خوارزمية جديدة تحدد الخوارزميات المنحازة وتكتشف مواطن الفشل فيها، غير أن ذلك لا يشكل حلًا نهائيًا للمشكلة، إذ يقتصر دور الخوارزمية على اكتشاف الخوارزميات المتحيزة عوضًا عن وضع حد لها، وما من رادع يمنع الناس من تطوير البرامج المنحازة واستخدامها.

وتطرح بعض الدراسات حلولًا قابلة للتطبيق؛ تتمثل بتعيين مدققين لمراجعة الشيفرات الحاسوبية، أو تقديم تدريب أفضل لمطوري الذكاء الاصطناعي، ليصبحوا أقدر على كشف انحيازهم وآرائهم، ما يمنعهم من تحويل تلك الآراء إلى حقائق ثابتة في خوارزمياتهم.

وعلى الرغم من انتشار التحيز الخوارزمي، إلا أن هذا لا يعني أن المبرمجين عاكفون على برمجة آلات عنصرية، بل إن السبب يكمن في الانحيازات الضمنية المتأصلة بنا جميعًا، وقد تساعد التدريبات المطورين على تمييز آرائهم الشخصية، ما يحقق عالمًا تقنيًا أكثر حيادية.

انكب علماء من المعهد الفدرالي السويسري للتقنية في زيورخ على تعليم ربوت بأربعة أقدام شبيه بالكلب مهارة جديدة مهمة؛ هي كيفية النهوض مجددًا بعد سقوطه أرضًا. وتضمن التدريب ضربات ودفعات يوجهها العلماء للروبوت البريء.

واستخدم الباحثون نموذجًا للذكاء الاصطناعي لتعليم روبوت «أنيمال» الشبيه بالكلب والذي صنعته شركة «أنيبوتيكس،» كيفية استعادة توازنه واستقامته بعد تعرضه للركل من الجنب أو الخلف ضمن بيئات متنوعة، مع تزويد الروبوت بمجموعة من الإرشادات المفصلة عن بيئة محددة واحدة.

ونشرت اليوم نتائج هذه التجارب على موقع «سينس روبوتكس،» وببساطة حاول الروبوت مرارًا وتكرارًا استعادة وضعيته الصحيحة ضمن محاكاة يتعلم خلالها من الحالات التي لم تفلح حركته فيها كيفية استعادة استقامته. ثم يطبق هذا الروبوت ما تعلمه على العالم الواقعي.

واكتسب الروبوت أيضًا مهارة الركض بسرعة  لم تسجل سابقًا، فضلًا عن نجاحه في قطع مسافة متر ونصف المتر في ثانية واحدة، وفقًا لموقع «نيو سينتست.»

فهل تقترب البشرية من مستقبل نواجه فيه كلاب حراسة آلية تلاحقنا لتنتقم منا، كما صوره مسلسل «بلاك ميرور» الذي عرض على منصة نيتفليكس؟ بما أننا نرجح هذه الاحتمالية، فنحن نعتقد بضرورة التوقف عن ركل هذه الكلاب الآلية قبل أن تبدأ قريبًا بتعلم كيفية الدفاع عن نفسها.

المصدر

بعد أسابيع من الضجة وردود الفعل السلبية، حققت جوجل انتصارًا قانونيًا يتيح لها مراقبة مستخدمي منتجات جوجل عن كثب. ورفض قاضي في شيكاجو دعوى قضائية ضد جوجل، زعمت بأن جوجل انتهكت حق المستخدمين في الخصوصية باستخدام تقنية التعرف على الوجوه دون موافقتهم. وأتت الدعوى، والتي رفعت في العام 2016، نتيجة لقانون خصوصية المعلومات البيومترية في ولاية إلينوي الأمريكية، وهو أحد قوانين الأمن البيومترية الأكثر صرامة في الولايات المتحدة الأمريكية، إذ يتطلب من الشركات الحصول على إذن صريح من سكان ولاية إلينوي قبل إجراء أي مسح بيومتري لأجسادهم. وتواجه كل من فيسبوك وسناب شات تحديات قانونية مشابهة، لكن فوز جوجل قد يعني حقبة جديدة من استخدام تقنية التعرف على الوجوه وتطويرها.

وأشار القاضي إدموند تشانج إلى عدم وجود ضرر مادي من استخدام تلك التقنية، ويعني هذا في المجال القانوني إما ضررًا ماديًا أو ضررًا بسمعة شخص. وعلى الرغم من عدم طلب الإذن، فاستخدام جوجل لصور المدعي لم يلحق به ضررًا ماديًا أو ضررًا بسمعته، ولهذا يعد قانونيًا، وفقًا للقاضي. وما زالت القضايا المرفوعة ضد فيسبوك وسناب شات معلقة، لكن فوز جوجل قد يمنح المحامين وسيلة للدفاع عن الشركتين.

وقد تتصدر تقنية التعرف على الوجوه النقاشات المتعلقة بتأثير التقنيات المتطورة على الحقوق الفردية وخصوصية المستخدمين. ويستمر تطوير هذه التقنيات، على الرغم من عيوبها، وتحذيرات رواد التقنية الآخرين، الذين يطالبون بقوانين أكثر صرامة. ويزداد انتشار تقنية التعرف على الوجوه في حياتنا اليومية، وفي المطارات والحفلات الغنائية. وفي الوقت الذي نناقش فيه أحقية امتلاك بياناتنا، تعمل شركات التقنية الكبرى على رسم مستقبلنا بطرائقها الخاصة.

 

عن اوس

شاهد أيضاً

هل حاسبك وجوالك آمنان؟

لعلك لاتشعر عندما يدخل جهازك أحد ما من المتسللين القراصنة، وربما مرت بك مشكلة عابرة …

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *