إرنست ديفيس
أستاذ علوم الحاسب في معهد كورانت للعلوم الرياضية، جامعة نيويورك
نيويورك – في السنوات 15 الماضية، شهدنا انفجاراً في كمية البيانات الرقمية المتاحة – من الإنترنت ووسائل الإعلام الاجتماعية، والمعدات العلمية، والهواتف الذكية، وكاميرات المراقبة، إلى العديد من المصادر الأخرى – وفي تكنولوجيا الكمبيوتر المستعملة. ومما لا شك فيه أن «البيانات الضخمة»، كما هو معروف، تقدم التطورات العلمية والتكنولوجية والطبية المهمة. لكن البيانات الضخمة أيضا تشكل خطراً جسيماً إذا ما استُعملت أو تم التعامل معها بنحو سيئ.
وبالفعل، فقد اعتمدت الابتكارات الرئيسة مثل محركات البحث على الإنترنت، والترجمة الآلية، ووسم الصورة على تطبيق تقنيات التعلم الآلي لمجموعات البيانات الضخمة. وفي المستقبل القريب، يمكن للبيانات الضخمة أن تحسن إلى حد كبير السياسات الحكومية وبرامج الرعاية الاجتماعية، والمنح الدراسية.
لكن وجود المزيد من البيانات ليس بديلا عن وجود بيانات عالية الجودة. على سبيل المثال، يوضح مقال نُشر مؤخراً في مجلة «نيتشر» أن استطلاعات الرأي الانتخابية في الولايات المتحدة تكافح من أجل الحصول على عينات تمثيلية من السكان، لأنه مسموح لها قانوناً بالاتصال فقط بالهواتف الأرضية، في حين يعتمد الأميركيون بنحو متزايد على الهواتف المحمولة. وبينما يمكن للمرء أن يجد آراء سياسية لا تحصى حول وسائل الإعلام الاجتماعية، فهذه لا تمثل الناخبين على نحو موثوق. في الواقع، فاٍن حصة كبيرة من التغريدات والمشاركات على الفيسبوك حول السياسة مولدة بالحاسوب.
في السنوات الأخيرة، تسببت البرامج الآلية المرتكزة على مجموعات البيانات في العديد من الفضائح. على سبيل المثال، في يونيو/حزيران الماضي، عندما بحث طالب جامعي على صور في جوجل عن «قصات الشعر غير مهنية للعمل»، أظهرت النتائج غالبية الصور للسود، عندما غير الطالب مصطلح البحث الأول إلى «المهنية»، أعطى جوجل أغلب الصور من الناس البيض. لكن هذه الصور لم تكن نتيجة للتحيز من جانب مبرمجي جوجل، بدلا من ذلك، اٍنها تعكس مدى تصنيف صور الناس على شبكة الإنترنت.
إن برنامج البيانات الضخمة الذي استعمل نتيجة البحث هذه لتقييم قرارات التعيين والترقية قد يفرض عقوبات على المرشحين السود الذين يشبهون الصور في نتائج «تسريحات الشعر غير المهنية»، وبالتالي إدامة الأحكام المسبقة التقليدية. وهذا ليس مجرد احتمال افتراضي. ففي العام الماضي، أظهرت تحقيقات «بروبوبليكا لنماذج مخاطر الانتكاسية» أن المنهجية المستعملة على نطاق واسع لتحديد العقوبات على المجرمين المدانين تغالي من احتمال ارتكاب المتهمين السود جرائم في المستقبل، وتقلل من خطر إقدام المتهمين البيض على فعل ذلك.
ويكمن خطر آخر في إمكانية التلاعب بالبيانات الضخمة. فعندما يعرف الناس أن مجموعة البيانات التي يتم استعمالها لاتخاذ قرارات مهمة من شأنها التأثير عليهم، سيكون ذلك حافزا لقلب الموازين لصالحهم. على سبيل المثال، قد يكون المعلمون الذين يقيمون وفقا لدرجات اختبار طلابهم أكثر عرضة «للتعليم من أجل الاختبار»، أو حتى للغش.
وبالمثل، فقد اتخذ مديرو الجامعات الذين يرغبون في نقل مؤسساتهم إلى تصنيفات جريدة «أخبار الولايات المتحدة وتقارير العالم» قرارات غير حكيمة، مثل الاستثمار في صالات رياضية باهظة على حساب الأكاديميين. والأسوأ من ذلك أنهم اتخذوا قرارات غير أخلاقية على نحو بشع، مثل الجهود التي تبذلها جامعة ماونت سانت ماري للزيادة في معدل «استبقائها» عن طريق تحديد وطرد الطلاب الأضعف في الأسابيع القليلة الأولى من الدراسة.
وحتى محرك البحث في جوجل ليس مناعي. فعلى الرغم من قيادته كمية هائلة من البيانات التي تشرف عليها نخبة من كبار علماء البيانات في العالم، فاٍن نتائجه عرضة «لتطوير محرك البحث» والتلاعب، مثل «قصف جوجل»، و»سبامديكسينغ»، وغيرها من الأساليب التي تخدم المصالح المحدودة.
والخطر الثالث هو انتهاك الخصوصية، لأن الكثير من البيانات المتاحة حاليا تحتوي على معلومات شخصية. في السنوات الأخيرة، سُرقت مجموعات هائلة من البيانات السرية من المواقع التجارية والحكومية. وأظهر الباحثون أن الآراء السياسية الشعبية أو حتى الميولات الجنسية يمكن استقاؤها بدقة من وظائف بسيطة على الانترنت، مثل التعليقات حول الأفلام – حتى بعد نشرها الزائف.
وأخيراً، تطرح البيانات الكبيرة تحدياً للمساءلة. يشعر أي شخص تمت معاملته بطريقة جائرة من قيل قرار نظام الحلول النسبية أنه أحيانا ليست لديه وسيلة للطعن، وذلك إما بسبب نتائج محددة لا يمكن تفسيرها، أو لأن الناس الذين كتبوا هذا النظام يرفضون تقديم تفاصيل عن كيفية اشتغاله. وبينما الحكومات أو الشركات قد تعترض منتقدي وصف نظام الحلول النسبية ب»الرياضي» أو «العلمي»، فهؤلاء أيضا غالباً ما ينزعجون من السلوك المرعب لإبداعاتهم. لقد اعتمد الاتحاد الأوروبي مؤخرًا ضمان حق الأشخاص المتضررين في الاستفسار. ولكن الزمن وحده سوف يبين كيفية تطبيقه في الممارسة العملية.
عندما لا يتوفر المتضررون من البيانات الكبيرة على سبل للطعن، تصبح النتائج سامة وبعيدة المدى، كما أوضحت مؤخرًا عالِمة البيانات كاثي اونيل في كتابها «أسلحة الدمار الرياضي».
والخبر السار هو أن مخاطر البيانات الكبيرة يمكن تجنبها إلى حد كبير. لكن لن يتأتى ذلك إلا إذا قمنا بحماية خصوصية الناس بكل جدية، وكشفنا عن الظلم وقمنا برفعه، باستعمال توصيات النظم الحسابية بحكمة، وبالحفاظ على فهم دقيق لأساليب العمل الداخلية لهذه النظم «والبيانات التي تؤثر على قراراتها.
إدارة المخاطر الكبيرة للبيانات الضخمة
التعليقات مغلقة