أظهرت حلقة من برنامج «سترافا»، المتعلق بهذا التطبيق الخاص بالرياضيين، أن سرية المعلومات لا يمكن تنظيمها بوساطة الملايين من الخيارات الفردية. والسؤال بالنسبة لمستخدمي هذا التطبيق: هل اتخذت قراراً في العام الجديد بالتدريب أكثر؟ ربما تكون قد قمت بتحميل تطبيق للرياضة البدنية لمساعدتك على متابعة التمارين، وقد يتيح لك هذا التدريب تقاسم البيانات على الإنترنت مع رفاقك في ممارسة الرياضة؟ وإذا كان الأمر كذلك، فربما تكون قد وضعت علامة على مربع لقبول سياسة خصوصية التطبيق. وبالنسبة لمعظم التطبيقات، يكون الإعداد الافتراضي هو أن تتقاسم البيانات مع شركتك على الأقل، في حين أن بعض التطبيقات بالذات يكون الإعداد الافتراضي فيها هو تقاسم البيانات مع الجمهور. ولكنك ربما لا تلحظ ذلك أو حتى تهتم له. وعلى أي حال، فماذا لديك لكي تخفيه؟ وبالنسبة لمستخدمي تطبيق «سترافا»، تبين أن الجواب أكثر تعقيداً بكثير مما قد يدركون. فمنذ شهر نوفمبر، كشف «سترافا» عن «خريطة حرارية» عالمية توضح مسارات مستخدميه وهم يركضون أو يمارسون الرياضة أثناء تشغيل التطبيق. وتتضمن الخريطة 3 تريليونات نقطة «جي بي إس» (النظام العام لتحديد الموقع)، تغطي أكثر من 5% من الأرض. وفي نهاية الأسبوع، أظهر عدد من المحللين الأمنيين أنه نظراً لأن العديد من أعضاء الخدمة العسكرية الأميركية هم من مستخدمي تطبيق «سترافا»، فإن الخريطة تظهر عن غير قصد مواقع القواعد العسكرية وتحركات أفرادها. وربما كان الأكثر إثارة للقلق بالنسبة للجيش أن أنماطاً مماثلة من الحركة يبدو أنها ربما تحدد محطات أو مدرجات الطائرات في أماكن ليس معروفاً أن الولايات المتحدة لديها فيها مثل هذه المواقع، وكذلك مسارات الإمدادات واللوجستيات. وأشار المحللون إلى أنه مع واجهة «سترافا»، من السهل نسبياً تحديد تحركات الجنود الأفراد ليس فقط في الخارج، بل أيضاً عندما يعودون إلى الوطن، ولاسيما إذا ما تم دمجها مع بيانات عامة أو البيانات المتاحة على وسائل التواصل الاجتماعي. وبصرف النظر عن معاقبة خبراء الأمن السيبراني في البنتاجون، تؤكد كارثة «سترافا» سوء فهم في قلب نظام حماية الخصوصية في الولايات المتحدة. ومن غير الممكن إدارة خصوصية البيانات بشكل فردي من خلال نظام الموافقة المستنيرة (القبول القائم على معرفة كافة أبعاد الموقف). وخصوصية البيانات ليست مثل السلعة الاستهلاكية، حيث تنقر على زر «أوافق» فيكون كل شيء على ما يرام. إن خصوصية البيانات أشبه بالهواء الجيد أو مياه الشرب المأمونة، أي إنها سلعة عامة لا يمكن تنظيمها بشكل فعال من خلال الثقة في حكمة الملايين من الخيارات الفردية. ولذا فإن هناك حاجة إلى استجابة جماعية. وجزء من المشكلة التي تواجهنا مع نموذج نظام الموافقة المستنيرة الذي يعمل بشكل منفرد هو أنه يفترض أن لدى الشركات القدرة على إعلامنا بالمخاطر التي نوافق عليها. بيد أن الأمر ليس كذلك. وبالتأكيد، فإن تطبيق «سترافا» لم يكن يعتزم الكشف عن إحداثيات ملحق محتمل لوكالة الاستخبارات المركزية في مقديشو بالصومال، ولكنه ربما يكون قد كشف ذلك بالفعل. وحتى لو كانت لدى كل شركات التكنولوجيا أهداف نبيلة وتتصرف بحسن نية، فإنها لن تكون في وضع يسمح لك بأن تعرف ما الذي تشترك فيه بالضبط. وجزء آخر من المشكلة يتمثل في الأساليب الحسابية التي تزداد قوة، والتي تسمى تعلم الآلة. وهذه الأساليب من الممكن أن تأخذ بيانات تبدو غير مهمة عنك، وعن طريق دمجها مع بيانات أخرى، يمكنها كشف حقائق عنك لم تكن أنت تنوي الكشف عنها. وعلى سبيل المثال، تظهر الأبحاث أن بيانات ثانوية مثل «مرات الإعجاب» التي يسجلها المستخدم على الفيسبوك يمكن استخدامها لمعرفة الكثير عن مزاجه وميوله وآرائه حول العديد من القضايا السياسية. وهذا النوع من التدخل الإحصائي الحسابي ليس طبعاً دقيقاً بنسبة 100%، ولكن من الممكن أن يكون دقيقاً تقريباً بما فيه الكفاية لاستخدامه لإعطاء لمحة عنك لأغراض متنوعة. ومن سمات التعليم الآلي التي تمثل تحدياً أيضاً غموض الطريقة التي يعمل بها نظام ما. ولا أحد -حتى أولئك الذين لديهم إمكانية الوصول إلى الأكواد (الرموز) والبيانات- يمكنه معرفة أي جزء من البيانات تم دمجه مع أي جزء آخر ليؤدي إلى النتيجة التي توصل إليها البرنامج. وهذا يزيد من تقويض فكرة الموافقة المستنيرة، حيث إننا لا نعرف أي البيانات التي يمكن أن تكون لها عواقب على الخصوصية. وكل ما نعرفه هو أن هذه الخوارزميات تعمل بشكل أفضل كلما زاد قدر البيانات المتاحة لديها. وهذا يخلق حافزاً للشركات لجمع وتخزين أكبر قدر ممكن من البيانات. ---------------- زينب توفسكي* * أستاذة في كلية الإعلام وعلوم المكتبات بجامعة ساوث كارولينا ينشر بترتيب خاص مع خدمة «نيويورك تايمز»