كيف تشكل تقنيات تحليل النصوص عالمنا الرقمي؟

تقنيات تحليل النصوص موجودة تقريبًا في كل منصات وسائل التواصل الاجتماعي، مما يهدد بترسيخ الصور النمطية عن الأقليات وحصر المستخدمين في دوائر مغلقة. في هذا المقال، يشير الدكتور جورج ميكروس، الأستاذ في كلية العلوم الإنسانية والاجتماعية بجامعة حمد بن خليفة، إلى أهمية إعطاء الأولوية لخصوصية البيانات وتطوير الذكاء الاصطناعي بشكل أخلاقي في المستقبل.

Entity:  كلية العلوم الإنسانية والاجتماعية
الدكتور جورج ميكروس

نحن نعيش في زمن أصبح فيه انتباهنا السلعة الأكثر رواجًا واستهدافًا، وقد برزت تقنية تحليل النصوص كإحدى أقوى الأدوات الموجّهة للتحكم في هذه السلعة وأكثرها جدلًا، إذ تؤدي دورًا كبيرًا في تشكيل تجربتنا الرقمية، فكل منشور أو تعليق أو رد فعل يصدر منا هو جزء من مجموعة بيانات يتم جمعها ومعالجتها وتحليلها بهدوء إلى جانب العديد من البيانات الأخرى، بهدف فهم هويتنا ومعتقداتنا والتنبؤ بردود أفعالنا المستقبلية.

تحليل النصوص ليس فكرة مستقبلية خيالية، بل هو واقع يحدث الآن في الخفاء على كل منصة من منصات التواصل الاجتماعي، ومع تطور هذه التقنية وزيادة تعقيدها، علينا أن نتساءل: ما هو حجم القوة التي نمنحها لهذه الخوارزميات، وهي التي باتت تعرف عنا أكثر مما نعرفه نحن عن أنفسنا؟

ما هي تقنية تحليل النصوص؟

تقنية تحليل النصوص تعتمد على فحص ودراسة ما نكتبه عبر الإنترنت، للكشف عن أنماط تتعلق بشخصياتنا وتفضيلاتنا وسلوكياتنا وحالاتنا المزاجية، وباستخدام تقنيات معالجة اللغة الطبيعية (NLP)، تقوم خوارزميات التعلّم الآلي بتحليل الكم الهائل من النصوص التي ننتجها لتكوين صورة أوضح عن هويتنا، ثم تُستخدم هذه البيانات لاحقًا لتقسيمنا إلى مجموعات ديموغرافية، أو التنبؤ بتصرفاتنا، أو تخصيص المحتوى بما يتناسب مع اهتماماتنا الشخصية.

وتكمن إمكانيات هذه التقنية في عملية توليد اللغة نفسها، فعندما ننسق الكلمات معًا لتكوين جمل ذات معنى، فإننا نكشف عن جوانب من أنماطنا السلوكية دون وعي منا، حيث تشير الاكتشافات الأخيرة إلى أنه أثناء إنشاء النص تتسرب العديد من الخصائص الديموغرافية والاجتماعية من خلال تفضيلاتنا لعناصر لغوية معينة.

تستخدم منصات وسائل التواصل الاجتماعي هذه التقنية لتحسين تجربة المستخدمين من خلال اقتراح محتوى يتناسب مع اهتماماتهم أو يسترعي انتباههم، فهي تدعم محركات الإعلانات التي تمكّن الشركات من استهداف العملاء المحتملين بدقة، مما يعزز فعالية الحملات التسويقية، كما أنها تساعد في الكشف عن السلوكيات الضارة، مثل خطاب الكراهية أو المضايقات أو المعلومات المضللة، مما يوفر أدوات لتنظيم المحتوى والحفاظ على أمان المجتمعات على الإنترنت.

ولكن مع مثل هذه القوة تنشأ معضلة لا مفر منها: عندما نسلم مفاتيح هوياتنا الرقمية لهذه الخوارزميات، ما هي العواقب طويلة المدى الناجمة عن ذلك والتي تؤثر على خصوصيتنا وحريتنا والمجتمع ككل؟

ما بعد تخصيص المحتوى

فكرة الحصول على محتوى مصمم خصيصًا ليتناسب مع اهتماماتنا تبدو مغرية، وتقنية تحليل النصوص هي ما تجعل هذا الأمر ممكنًا، إذ تحول التدفق اللامتناهي من المحتوى إلى تجارب منتقاة تتماشى مع أذواقنا.

ومع ذلك، فإن المحتوى الذي نتعرض له يتشكل بناءً على الملفات الشخصية التي يتم استنتاجها عنا، والتي غالبًا ما تستند إلى معلومات غير كاملة أو متحيزة أو غير دقيقة. كما تميل الخوارزميات إلى تعزيز تفضيلاتنا ومعتقداتنا القائمة مسبقًا، مما يجعلنا ننغمس أكثر في دوائر فكرية مغلقة، وبينما نعتقد أننا نتصفح بغرض الترفيه والتسلية، قد نكون في الحقيقة نغرق في رؤى محدودة ونعزل أنفسنا عن وجهات النظر المغايرة.

هناك أيضًا الحقيقة المقلقة المتمثلة في احتمالية استغلال تحليل النصوص للتلاعب، فقد كانت هذه التقنية محور فضيحة "كامبريدج أناليتيكا"، حيث استُخدمت بيانات ملايين المستخدمين على منصة فيسبوك لبناء ملفات شخصية نفسية ساعدت في رفع مستوى دقة استهداف الدعايات السياسية للمواطنين، فمن خلال تحديد مخاوف المستخدمين وتحيزاتهم، تم تصميم الدعايات بشكلٍ موجه يتيح لها تأثيرًا أكبر على الرأي العام، وهكذا أصبح الخط الفاصل بين تخصيص المحتوى والتلاعب دقيقًا للغاية، مما كشف لنا عن حجم المخاطر التي يمكن أن تواجهنا.

التحيزات الكامنة وراء التكنولوجيا

كما هو الحال في أي تقنية، تحمل تقنية تحليل النصوص تحيزات من قاموا بتطويرها، حيث يتم تدريب أنظمة تحليل النصوص باستخدام كميات هائلة من البيانات التي غالبًا ما تعكس التحيزات القائمة في المجتمع، مما يؤدي إلى إعادة إنتاج هذه التحيزات أو حتى تعزيزها في عملية اتخاذ القرارات، وهذا يعني أن الفئات المهمشة قد تتعرض للتشويه أو الاختزال في أنماط معينة خلال هذه العملية، الأمر الذي قد يؤدي إلى عواقب غير محمودة.

على سبيل المثال، يختلف استخدام اللغة بشكل كبير بين الثقافات والبيئات الاجتماعية والاقتصادية المختلفة، وقد يؤدي قصور الخوارزمية في فهم هذه الاختلافات إلى تفسير نية المستخدم بشكل خاطئ أو تصنيفه في ملف تعريفي مضلل، إذ يُمكن لتعليق بسيط أن يُؤخذ خارج سياقه، مما قد يتسبب في تداعيات حقيقية، مثل الإبلاغ غير المبرر عن محتوى غير لائق أو تلقي إعلانات غير مناسبة أو حتى مسيئة.

ومع تزايد استخدام تقنية تحليل النصوص في مجالات متعددة خارج نطاق وسائل التواصل الاجتماعي، مثل التوظيف أو تقييم الائتمان أو تطبيق القانون، تزداد المخاطر المتعلقة بالتحيز في النتائج. وإذا لم يتم تطوير هذه التقنيات واستخدامها بإنصاف وشفافية، فقد تؤدي إلى مفاقمة الفجوات القائمة بدلًا من تقليصها.

ما هي الخطوة القادمة؟

مما لا شك فيه أن تقنية تحليل النصوص ليست خيرًا محضًا ولا شرًا محضًا، بل هي مجرد أداة، مما يعني أن تأثيرها يعتمد على كيفية استخدامها، وهناك إجراءات معينة ينبغي اتباعها للاستفادة من مزايا هذه الأداة وتقليل أضرارها.

قبل كل شيء، يجب أن تكون الشفافية أولوية، وعلى شركات التكنولوجيا ومنصات التواصل الاجتماعي أن تكون أكثر وضوحًا بشأن كيفية استخدامها لتقنيات تحليل النصوص، ونوعية البيانات التي يتم جمعها، ومدى تأثير تلك المعلومات على تجربة المستخدمين، فمن حق المستخدمين أن يفهموا كيف يتم تفسير بصماتهم الرقمية واستخدامها لتوجيه ما يشاهدونه ويفعلونه عبر الإنترنت.

ثانياً، يجب أن تواكب اللوائح والتشريعات سرعة التقدم التكنولوجي، فعلى الرغم من أن الحكومات حول العالم بدأت في سن قوانين لحماية خصوصية البيانات، إلا أن وتيرة التقدم التكنولوجي غالبًا ما تفوق سرعة وضع السياسات. لذلك، من المهم وضع قوانين مدروسة تضمن حماية خصوصية المستخدمين مع تعزيز الابتكار في آن واحد لضمان تطوير هذه التقنيات بشكل مسؤول.

وأخيرًا، من الضروري التركيز على التطوير الأخلاقي للذكاء الاصطناعي، وهذا يشمل تدريب الخوارزميات على مجموعات متنوعة من البيانات، واختبارها لضمان عدم وجود تحيزات، وإشراك خبراء علوم الأخلاق والاجتماع في مراحل التصميم، كما يجب على مطوري هذه الأدوات التأكد من أن أنظمتهم تقدم تجربة عادلة لجميع المستخدمين، وليس فقط للأغلبية أو لمن يناسبون بعض المعايير الضيقة.

دعوة لتعزيز الثقافة الرقمية

بصفتي باحثًا في هذا المجال لأكثر من 20 عامًا، كثيرًا ما أجد نفسي في صراع مع الأبعاد الأخلاقية لعملي، ففي كل مرة أنشر بحثًا جديدًا حول تحليل النصوص، أبدأ بالتساؤل عما إذا كان سيسهم فعلًا في خدمة المجتمع أم قد يتسبب دون قصد في ضرر، ومع تزايد الاعتماد على العالم الرقمي، أصبحت الثقافة الرقمية، مثل فهم الكيفية التي يتم فيها استخدام بياناتنا والنظر بعين ناقدة إلى المحتوى الذي نتفاعل معه، على قدر من الأهمية لا يقل عن مهارات القراءة والكتابة التقليدية، لذا ينبغي أن نتساءل على الدوام لماذا تظهر لنا إعلانات معينة، ولماذا تُعطى الأولوية لمنشورات معينة، وكيف يتم تشكيل هوياتنا الرقمية عبر البيانات التي نتركها في الفضاء الإلكتروني.

إن تقنية تحليل النصوص أداة قوية تحمل إمكانيات مذهلة لتعزيز تجاربنا الرقمية، لكن من دون فحص دقيق وإدارة واعية، يمكن أن يتم تسليحها ضدنا بسهولة، مما يؤثر على رؤيتنا للعالم بطرق قد لا ندركها، وكمستخدمين، يجب علينا أن نطالب بالشفافية والعدالة في التقنيات التي تؤثر بشكل عميق على حياتنا، ومن جهة أخرى، كمبدعين وباحثين وصانعي سياسات، يجب علينا التأكد من أن القوى الخفية التي توجّه تجاربنا تعمل من أجل مجتمع أكثر عدلًا ووعيًا، وليس فقط لتحقيق الربح، بل من أجل الصالح العام.

** الدكتور جورج ميكروس يعمل أستاذًا في كلية العلوم الإنسانية والاجتماعية بجامعة حمد بن خليفة.

** تنشر إدارة الاتصال بجامعة حمد بن خليفة هذا المقال بالنيابة عن مؤلفه، والأفكار والآراء الواردة فيه تعبر عنه ولا تعكس بالضرورة الموقف الرسمي للجامعة.