إدارة البيانات الرقمية يجب ألا تظل حكرًا على شركات التكنولوجيا
دورية Nature
2021-09-27 05:58
بقلم: جاثان سادوسكي، وسالومي فيليون، وميريديث ويتيكر
تكشف الهواتف الذكية، وأجهزة الاستشعار، ونُظُم تتبُّع عادات المستهلكين الكثير عن المجتمع. ومع ذلك، فإن قلة قليلة فقط من الأشخاص تتمتع بحق البت في أساليب استحداث هذه البيانات، وأوجُه استخدامها.
قبل بضعة عقود، كان الباحث إذا أراد أن يدرُس تأثير سوء حالة الطقس على أنماط التنقل (أي على الوسائل التي يستخدمها الناس في التنقل، والطُرُق التي يسلكونها، والأوقات التي يسافرون فيها)، يضطر غالبًا لاستطلاع آراء مئات الأشخاص، فضلًا عن إحصاء عدد السيارات والحافلات والدراجات التي تمر عند تقاطعات الطُّرُق الرئيسة.
أما اليوم، فيمكن الوصول إلى بيانات تسرد تفاصيل تحركات ملايين الأشخاص بعد وقوعها، بل وآنيًّا أحيانًا أيضًا. وهذه البيانات، المُستمَدة من نُظُم التتبُّع الموجودة في الهواتف أو السيارات، يمكن تضمينها في الدراسات المعنيَّة بالتطعيم ضد مرض «كوفيد-19»، بهدف تقصِّي آثار تنقلات الموظفين المسافرين بصفة دورية إلى العمل ومنه. كما يمكن أن تشمل هذه الدراسات بيانات حالة الطقس، للوقوف على ما إذا كان مدى إقبال الموظفين اليوم على العمل من المنزل في حال هَطْل أمطار غزيرة أكبر مما كان عليه قبل بضع سنوات، أَم لا.
ونظريًّا، يمكن القيام بذلك وأكثر، غير أن الصورة الوردية التي ترسمها مثل هذه التوقعات كثيرًا ما تكون بعيدة كل البعد عن الواقع.
ومعظم البيانات المتاحة لمتخصصي العلوم الاجتماعية الحاسوبية - أو تلك التي يسعون إلى الحصول عليها –بيانات تُستحدَث بغرض الإجابة عن أسئلة لا صلة لها بالأسئلة البحثية التي يطرحها هؤلاء المتخصصون، وإنما تُعبِّر بشكل أساسي عن الغرض الأصلي من جمعِها، سواء أكان ذلك الغرض هو استهداف فئة ما بالإعلانات، أَم تقسيط دفعات التأمين بما يتلاءم مع المُعطيات الشخصية لكل عميل. ومع ذلك، فإن تلك البيانات يمكن - مع توخي الحذر - إعادة استخدامها بغرض الاستفادة منها في الإجابة عن أسئلة أخرى؛ إذ يمكن، على سبيل المثال، للبيانات المُستمَدة من أجهزة تتبُّع اللياقة البدنية القابلة للارتداء أن تخدم الدراسات المتعلقة بالسِّمنة، غير أنه عادة ما تظل هناك فجوات كبيرة في تلك البيانات. ولذا، غالبًا ما يلجأ العلماء إلى ابتكار حلول بديلة تُمكِّنهم من اِستقاء أكبر قدر ممكن من المعلومات المفيدة من أي مورد يتسنى لهم1.
ويمكن الاستشهاد في هذا السياق بتجربة مر بها باحثون حاولوا الإجابة عن أسئلة طرحتها الحكومة المحلية في منطقة سيدني الكبرى بأستراليا حول أنماط التنقل؛ إذ كان عليهم أن يلجأوا إلى استخدام بيانات مكانية وزمانية منخفضة الجودة، جرى استخلاصها من الإشارات التي ترسلها الهواتف المحمولة إلى الأبراج الخلوية 2 ولم يقف الأمر عند ذلك الحد، بل اضطر هؤلاء الباحثون أيضًا لشراء تلك البيانات بتكلفة عالية من مزوِّد خدمات الاتصالات عن بُعد.
ومن هنا، فإننا نرى أن نموذج إدارة البيانات في شكله الحالي، الذي يسمح للشركات باحتكار البصمات الرقمية لحياتنا، يهدد قدرة المجتمع على إنتاج البحث العلمي الدقيق والمستقل اللازم للتعامل مع قضاياه المُلِحَّـة. فهذا النموذج يحجِّم ما يمكن الوصول إليه من معلومات، وما يمكن طرحه من أسئلة بحثية، وهذا يَحُول بدوره دون إحراز أي تقدم نحو فهْم الظواهر المعقدة، بدءًا من تأثير نسبة توفُّر التطعيمات على أنماط السلوك، وصولًا إلى أثر الخوارزميات فيما يخص انتشار المعلومات المُضلِّلة، ومن هذا المنطلق، تأتي دعوتنا إلى توليد البيانات السلوكية، وإدارتها، وفرزها عن طريق صناديق بيانات عامة.
حظر سُبُل الوصول إلى البيانات
إن الإطار الاقتصادي والسياسي الذي تجري بموجبه إدارة البيانات يضع متخصصي العلوم الاجتماعية في موقف حرِج؛ فالوصول إلى البيانات مرهون بشروط، إذ إن الشركات تحرص كل الحرص على مراقبة ما يطرحه - أو لا يطرحه - الباحثون من أسئلة، وما يمكنهم الوصول إليه من بيانات، وأي مسلك يتبعونه في تحليل تلك البيانات. وفي المقابل، نادرًا ما يستطيع العلماء تحديد أي معلومات تم حجبها عنهم عندما منحتهم الشركات المُتحكِّمة في البيانات حق الوصول إليها، أو بأي طريقة حصلت تلك الشركات على البيانات في المقام الأول.
وفي أحسن الأحوال، قد يكون لهذا الوضع تأثير مخيف على المساعي البحثية، فعلى سبيل المثال، بعض الدراسات قد لا ترى النور إذا كانت هناك احتمالية لأنْ تهدِّد سمعة مُزوِّد البيانات، أو أرباح دخل شركته. أما في أسوأ الأحوال، فقد يشعر الباحثون بأن ضغوطًا تُمارَس عليهم من أجل دفْعهم لمواءمة دراساتهم ونتائجها البحثية مع قيم وأولويات شركات التكنولوجيا. وإذا جاءت النتائج على غير هوى تلك الشركات، فقد يُحظَر هؤلاء الباحثون من الوصول إلى البيانات، وهو ما لا يهدد بانقطاع عملهم البحثي فحسب، بل ربما أيضًا يضع مكانتهم على المحك داخل مؤسساتهم وبين أقرانهم.
في مارس الماضي، على سبيل المثال، كشف تقرير فريق "الذكاء الاصطناعي المختص" لدى شركة «فيسبوك» أن الشركة تفرض قيودًا على الباحثين في اختيار أنواع المشكلات التي يمكنهم تقصّيها، والحلول التي يمكنهم طرحها لتلك المشكلات. وبالتالي، بدلًا من أن يركز عمل الفريق على اجتثاث جذور المعلومات المُضلِّلة، والتصدي لخطاب الكراهية الذي يسهم في شحذ معدلات التفاعل على وسائل التواصل الاجتماعي، اقتصر عملهم على دراسة التغييرات التقنية التي يمكن إدخالها للتصدي للتحيز المُتأصِّل في النُّظُم المعلوماتية لموقع «فيسبوك» (انظر: go.nature.com/2t5kudw).
وعلاوة على ذلك، فإن الاعتماد على سخاء الشركات الخاصة في توفير البيانات يتعارض مع مبادئ الدقة والمسؤولية العلمية؛ إذ يمكن للقيود التعاقدية أن تمنع الباحثين من الوصول إلى النتائج نفسها التي أسفرت عنها دراسات أجراها باحثون قبلهم، والتحقق من صحة هذه النتائج. على سبيل المثال، في عام 2019، أفاد باحثون في مجال الصحة بوجود "تحيز عنصري ملحوظ" في البيانات التي استُخدِمت في تدريب خوارزمية تجارية مُسجَّلة الملكية، وهو ما ترتب عليه إنفاق مبلغ أقل بمقدار 1800 دولار أمريكي سنويًّا في علاج المرضى السود، مقارنة به في حال المرضى البيض ممن تمتعوا بالمستوى نفسه من الصحة 3. وهذا التحيز، الذي نفت الشركة وجوده، لم يتم الكشف عنه إلا عندما أجرى الباحثون عملية مُراجَعة مستقلة لسجلات مستشفى جامعي كبير.
يهدد الوضع الراهن بوقوع مشكلات خطيرة؛ فثمة ميل متزايد نحو اعتبار الممارسات غير الأخلاقية التي تتبناها شركات التكنولوجيا الكبيرة أنها في الكفة نفسها مع مقاربات جمْع البيانات الديموغرافية، ودراسات السلوك، والتنبؤ بعوامل الخطر. وهذا يسهم في تشويه هذه المقاربات، وفي التقليل من مصداقيتها على المدى الطويل. كما أن الهيمنة التي يفرضها عدد محدود من المنصّات الإلكترونية المغلقة التي تُوفِّر البيانات تلعب دورًا في رسم ملامح مستقبل العلوم الاجتماعية الحاسوبية؛ إذ غالبًا ما تُمنَح شهادات الدكتوراة والوظائف الأكاديمية الثابتة على أساس ما يؤمِّنُه الباحث لنفسه من تمويل، وبيانات، وأبحاث منشورة، ومكانة عبر التعاوُن مع الجهات الفاعلة في مجال صناعة التكنولوجيا.
خط سير البيانات
إن التحدي الذي نواجهه الآن لا يتمثل في محدودية الوصول إلى البيانات مُسجَّلة الملكية فحسب، بل تدخل فيه أيضًا إشكاليات جوهرية حول خط سير تلك البيانات، أي كيف تتولَّد، وإلى أي جهة تؤول؟
إن إعلاء الشركات من قيمة معلومات بعينها على حساب أخرى قد يكون سببًا في تحريف البيانات المتاحة للتحليل. فعمالقة التكنولوجيا يُعلِّقون أهمية كبيرة على المعلومات السلوكية للأشخاص، ويعدّون هذا النوع من المعلومات فئة جديدة من فئات الأصول الاستثمارية 4. ويؤثر هذا التفضيل بالطبع على خطط البحث العلمي، والسبب في ذلك يعود في جزء منه إلى وفرة البيانات. فمتخصصو العلوم الاجتماعية الحاسوبية كثيرًا ما يستخدمون بيانات التفاعُلات على مواقع التواصل الاجتماعي، على سبيل المثال، كأداة غير مثالية تعبِّر عن العديد من العوامل الأخرى، مثل التنقلات، أو الصحة، حتى إنْ لم تكن هذه البيانات الوسيلة المُثلى للإجابة عن أسئلتهم 5.
خَمْس حِيَل لتحقيق الديمقراطية الرقمية
وفضلًا عن ذلك، فإن الرؤى التي يستشفِّها الباحثون من بيانات ما، قد يشوبها خلل، إنْ كانت تلك البيانات قد تشكلت في ضوء افتراضات غير صحيحة وتحيزات ضارة، وهو ما يحدث عن غير قصد في كثير من الأحيان. وعلى سبيل المثال، اكتشف باحثون في مجال الذكاء الاصطناعي أن مجموعات البيانات الكبيرة، كتلك المتوفرة عبر قاعدة بيانات "إميدج نت" ImageNet التي استُخدمَت في تدريب نُظُم تعلُّم الآلة وتقييمها لأكثر من عقد من الزمان، تنطوي على تعليمات مرمَّزة قائمة على أفكار نمطية متحيزة ضد الجنس والعِرق، وهي أفكار تُترجم فيما بعد إلى البرمجيات التي تنطلق من تلك البيانات 6، 7.
حوكمة البيانات بصورة ديمقراطية
ليس هناك الكثير مما يمكن القيام به للتصدي لهذه الإشكاليات الجوهرية، دون تغيير النظام الذي يسمح باحتكار الشركات الخاصة للبيانات تغييرًا جذريًّا. فنحن بحاجة إلى تطوير نُظُم مهيّأة بشكل أكبر لتحليل الظواهر الاجتماعية، عبر طُرُق أخلاقية، ومنصفة، تكون دقيقة من الناحية العلمية. وكما تدخل الأفكار الحاصلة على براءة اختراع حيز الملكية العامة بمجرد انتهاء فترة صلاحية حقوق ملكيتها الفكرية، فإن البيانات السلوكية التي تجمعها الشركات يجب أن تخضع هي الأخرى لرقابة جهة ديمقراطية بعد انقضاء بعض الوقت.
وهذا النموذج الذي يضمن إدارة البيانات على نحو أفضل سيتضمن - على الأرجح - الإشراف على خط سير البيانات إشرافًا جماعيًّا من خلال صناديق بيانات عامة تخضع لإشراف علمي، ولمساءلة ديمقراطية. وقد مهّدت دراساتٌ قائمة بالفعل الطريقَ للعمل بمثل هذه الأدوات. على سبيل المثال، يوضح تقرير صادر عن شركة »إيليمينت إيه آي» Element AI الكندية، ومنظمة «نيستا» Nesta البريطانية، أن صناديق البيانات العامة هي أداة سياسية واعدة، نظرًا إلى دورها كمورد شامل لحقوق أصحاب البيانات، وتعيينها لشروط لاستخدام هذه البيانات (انظر: go.nature.com/3decirk؛ كانت سالومي فيليون من المشاركين في ورشة العمل التي يستند إليها التقرير).
وقد أطلقت مدينة برشلونة في إسبانيا تجربة واعِدة في عام 2017، عندما أسسَت "مشاع بيانات المدينة" الذي أَعطى السكان حق التحكم في طُرُق توليد البيانات المتعلقة بهم وبمجتمعاتهم، فضلًا عن منْحهم سلطة المشاركة في القرارات الخاصة بحوكمة تلك البيانات. وفي الوقت الراهن، تضم بوابة الوصول المفتوح إلى البيانات الخاصة بالمشاع 503 مجموعات بيانات تتمحور حول البلدية، وتشمل بيانات تُوفِّر معلومات آنية عن استخدام سكان المدينة لنظام مشاركة الدراجات.
وهذا النوع من الرقابة الديمقراطية يساعد على حماية الأشخاص الذين يُزعم أن هذه البيانات تتمحور حولهم؛ إذ تمنح الحوكمة العامة هؤلاء الأشخاص المزيد من الحقوق، وتُرسي قواعد إضافية لأجلهم، كتلك الحقوق والقواعد التي تضمن مناهضة التمييز، واتباع الإجراءات القانونية الواجبة، وفرْض قدر أكبر من المساءلة. وفي معظم الحالات، يكون نطاق الحماية الذي تُوفِّره مثل هذه الإجراءات أوسع بكثير من ذلك الذي تُوفِّره تعهدات الجهات الخاصة، مع العلم بأن درجة هذه الحماية تتفاوت من بلد إلى آخر، ومن منطقة إلى أخرى.
إن الإشراف الجماعي على البيانات بإمكانه أن يُسلِّط الضوء على الجانب المفيد اجتماعيًّا من هذه المعلومات؛ وبذلك لا يكون التركيز مُنصَبًّا على ما نعرفه من معلومات عن شخص بعينه، بل على ما تكشف تلك المعلومات عن الأشخاص الذين توجد أوجه شبه وارتباط بينهم 8. وبدلًا من التركيز على حقوق الأفراد فحسب، فإن صناديق البيانات العامة يمكنها، بل وينبغي لها، أن تُعبِّر أيضًا عن المصالح والمنافع الخاصة بالفئات التي تتأثر بعد ذلك باستخدام ما ينتج من بيانات. على سبيل المثال، عندما استخرجت شركة «كلير فيو للذكاء الاصطناعي» ClearView AI في نيويورك صورًا من مواقع تخزين سحابي، واستخدمتها بغرض تطوير برمجيات قوية، لاستخدامها في تطبيقات التعرف على الوجوه، لم يكن الأشخاص الذين يظهرون في تلك الصور على علم بحدوث ذلك، ناهيك عن أنّ هذه الصور استخدمَتْها شركات أخرى وأقسام شرطة اشترت حزمة البيانات تلك.
ومع ذلك، فبطبيعة الحال، تتأتى مع امتلاك المؤسسات العامة للبيانات تحديات ذات طبيعة خاصة؛ إذ إن الحكومات أحيانًا ما تستغل تلك البيانات في إلحاق أضرار جسيمة بفئات معينة من السكان، عن طريق استهداف المُهَمَّشين مثلًا، كما يمكنها الإفلات من المساءلة من خلال فرْض تدابير قمعية. ولذا، وجب تصميم صناديق البيانات العامة على نحو يسمح بالحوكمة الديمقراطية للبيانات منذ البداية، بحيث تكون تلك الصناديق مُعبِّرة عن المجتمعات التي تتمحور حولها البيانات، ومستجيبة لاحتياجاتها.
ويجب أيضًا أن تُودَع البيانات في صوامع مُحكَمة، تَحُول دون الوصول إلى خط سير البيانات العامة، أو التلاعب به، عن طريق المنظمات الحكومية الأخرى، مثل الشرطة، أو الجيش. على سبيل المثال، استخدمت سنغافورة بيانات النظام العالمي لتحديد المواقع (GPS) المُستمَدة من الهواتف المحمولة في اقتفاء أثر مخالطي مصابي جائحة «كوفيد-19»، بيد أن ثقة المواطنين في هذا النموذج سرعان ما تراجعت بعدما تبين أن الشرطة استغلت البيانات نفسها في التحقيقات الخاصة بجرائم القتل.
ثلاث خطوات
فيما يلي، نعرض ثلاث خطوات نوصي بأنْ يتبعها صانعو السياسات والقائمون على المؤسسات العلمية، من أجل حماية البيانات السلوكية، بوصفها منفعة عامة.
"إن إعلاء الشركات من قيمة معلومات بعينها على حساب أخرى قد يكون سببًا في تحريف البيانات المتاحة للتحليل".
تتمثل الخطوة الأولى في تأسيس البِنْية التحتية العامة. ويتطلب هذا تمويل نُظُم قياس البيانات، وحوسبتها، وتخزينها، بما يكفل إنشاء مجموعات بيانات كبيرة تلائم متطلبات البحث العلمي كمًّا ونوعًا. ويجب أن تُرصد هذه الموارد لمستحقيها من المجتمعات والمنظمات المنخرطة في قياس البيانات، وحوسبتها، وتخزينها بالفعل، ومن بينها مجتمعات السكان الأصليين التي تعمل على إدارة معارفها، وتصنيفها، والتحكم فيها بموجب مبادئ "سيادة البيانات". كذلك، يجب تعزيز البِنْية التحتية بآليات مُحْكَمة تحفز على المشاركة، بحيث يتمكن أولئك الذين "تتمحور حولهم" البيانات من وضع خطة لجمع البيانات، والتصدي لاستخدام البيانات بصورة غير دقيقة أو ضارة، ومن ثمَّ إصلاح الوضع.
أما الخطوة الثانية، فتتمثل في فرض السيطرة. فهناك حاجة إلى وضع سياسات تقضي بنقل البيانات التي تنشئها وتتحكم فيها المؤسسات الخاصة إلى المؤسسات العامة. ويجب أن تغطي تلك السياسات أيضًا التفاصيل المتعلقة بالطرق المستخدَمة في قياس البيانات، وعمليات جمعها، وبيئة تخزينها.
وهناك سابقة قانونية بالفعل لمنح الشركات الخاصة حقوقًا مُقيَّدة تسمح باستخدام أصول غير ملموسة، تدخل من جديد حيز الملكية العامة في نهاية المطاف. وعلى سبيل المثال، يُنظِّم القانون الأمريكي المعروف باسم «هاتش-واكسمان» Hatch-Waxman شؤون الملكية الفكرية الخاصة بإنتاج أدوية المشاع 9 وبالمِثل، نقترح وضع سياسة تمنح الشركات احتكارًا محدودًا للبيانات التي تجمعها وتمتلكها. وبعد فترة زمنية محددة، تبلغ ثلاث سنوات، على سبيل المثال، تصبح هذه البيانات موردًا عامًّا، أو يجري التخلص منها.
ويمكن أن تُطبَّق هذه السياسة أيضًا على أي نماذج جرى استخدام البيانات في تدريبها، أو توجيهها، نظرًا إلى أن تلك النماذج قد تفرض على الناس مخاطر، هم في غِنى عنها، في حال الاحتفاظ بها. وهناك سابقة لهذا أيضًا؛ إذ أمرت لجنة التجارة الفيدرالية الأمريكية في مايو الماضي بتدمير خوارزميات التعرُّف على الوجه، التي استُخدِمت في تدريبها صور تم الحصول عليها بطُرُق ملتوية. ويمكن ربط أحكام السياسة المقترحة بما هو قائم من لوائح خصوصية البيانات، وذلك من خلال منح الشركات شروطًا تسهيلية وحوافز في حال إقدامها على تسليم ما لديها من مجموعات بيانات وبيانات وصفية إلى الجامعات، أو الأرشيفات، أو المؤسسات العامة الأخرى، كي تدير هذه البيانات.
أما الخطوة الثالثة، فتتمثل في توسيع نطاق الحوكمة. وهذا يتطلب إنشاء مؤسسات مُخصصَة لهذا الغرض، وتتمتع بالقدرات التي تؤهلها للإشراف على البيانات بما يخدم الصالح العام. وليست هناك حاجة إلى البدء من الصفر؛ ففي الولايات المتحدة، على سبيل المثال، يمكن لمكتبة الكونجرس، والمؤسسة الوطنية للعلوم، ومعاهد الصحة الوطنية أن تعمل كلها كنماذج للمؤسسات العامة المذكورة أعلاه، ويمكن أن يكون لدى كل منها ممثلون في لجان الإشراف على صناديق البيانات العامة.
وسيشمل فريق العمل الخاص بهذه المؤسسات مديرين لقواعد البيانات، مُدرَّبين على تبَنِّي المعايير الأخلاقية التي ينُص عليها علم المكتبات، وهي معايير تقوم على الموازنة بين إدارة المعلومات لخدمة الصالح العام، والمخاطر التي قد تنشأ عن مشاركة المعلومات. ويمكن للخبراء المتخصصين في القياس وطرق البحث الكمية والنوعية أن يطرحوا سُبُلًا جديدة لتوليد البيانات، وذلك عن طريق العمل عن كثب مع الباحثين والمجتمعات السكانية، للوقوف على ما يجب طرحه من الأسئلة البحثية المجتمعية.
وفي السياق نفسه، سيقيِّم متخصصو العلوم الاجتماعية الحاسوبية مدى سرية مصادر البيانات، سائرين في ذلك على خطى مسؤولي الإحصاء المُحلَّفين العاملين لدى مكتب تعداد الولايات المتحدة. وبناء على نتائج التقييم، سيجري نشر البيانات الواردة من المصادر ذات السرية المنخفضة، وذلك في صورة معلومات مُجمَّعة مجهولة المصدر. أما البيانات الواردة من مصادر شديدة السرية (وهذه تشمل المعلومات التي تخص أفرادًا بأعينهم، ويمكن التعرُف على مصدرها بسهولة)، فستخضع لحماية مُشدَّدة. ويمكن لصناديق البيانات العامة أيضًا أن تدعو فئات المجتمع ومؤسسات الضغط إلى المشاركة في صياغة بروتوكولات تُعنى بالموافقة على مشاركة البيانات، وبحالات النزاع على البيانات، ووضع خطط تصميم البيانات، وقوائم الأهداف البحثية، وتحديد متطلبات الوصول إلى البيانات واستخدامها.
فلنُطالِب بالتغيير!
لسنا وحدنا في هذه المعركة، وما علينا إلا تأمُّل العدد المهول من دعاوى مكافحة الاحتكار المرفوعة ضد منصّات مثل «جوجل»، و«فيسبوك»، و«أمازون»، و«علي بابا» في الولايات المتحدة، والاتحاد الأوروبي، وأستراليا، والصين. كما أن جائحة «كوفيد-19» خلقت هي الأخرى زخمًا جديدًا حول القضية. ففي شهر مارس من هذا العام، دعت أكاديميات العلوم التابعة لمجموعة السبع (G7) إلى صياغة آلية تُلزِم المؤسسات العامة والخاصة بمشاركة بعض البيانات ذات الأهمية في أثناء حالات الطوارئ الصحية (انظر: go.nature.com/2sjqj2v).
ولكي يتحقق ذلك، يجب على العلماء الذين يعتمد عملهم على مجموعات كبيرة من البيانات مُسجَّلة الملكية أن يصرِّحوا بآرائهم حول مخاطر استئثار الشركات بالبيانات، وأن يشاركوا تجاربهم الواقعية في التعامل مع الخيارات الأخلاقية الصعبة التي يفرضها هذا الوضع، وذلك عبر المنابر التي تُتِيحها وسائل التواصل الاجتماعي، ومؤتمرات مثل مؤتمر أنظمة معالجة المعلومات العصبية (NeurIPS). كما يجب عليهم أيضًا الضغط على الجامعات، للمطالبة بتغيير نُظُم ملكية البيانات الحالية، والتحالف مع المجتمعات المحلية التي تقود بالفعل حملات تطالب بالتعويض عن الضرر الناجم عن مراقبة البيانات.
كما ينبغي لممثلي الاتحادات الأكاديمية والهيئات الحكومية، مثل مكاتب التعداد، والمكتبات الوطنية، أن يشكلوا فرق عمل متعددة التخصصات، بهدف وضع سياسة تسمح بإنشاء صناديق بيانات عامة. ويجب أن يضطلع متخصصو العلوم الاجتماعية الحاسوبية بدورهم كمشرفين عامِّين على هذا المورد الجماعي، الذي سيكون من شأنه تعميق معرفتنا بأنفسنا ومجتمعاتنا.