ناشطة أمريكية تقاضي "ميتا" بسبب "استجابة" الذكاء الاصطناعي: فصل جديد في معركة المحاسبة الرقمية

ناشطة أمريكية تقاضي "ميتا" بسبب "استجابة" الذكاء الاصطناعي: فصل جديد في معركة المحاسبة الرقمية

واشنطن العاصمة، 1 مايو 2025 — عاصفة قانونية وأخلاقية جديدة تندلع في وادي السيليكون، حيث رفعت ناشطة بارزة في مجال الحقوق المدنية دعوى قضائية غير مسبوقة ضد شركة ميتا، متهمةً إياها بأن أنظمتها المعتمدة على الذكاء الاصطناعي تفاعلت معها بطريقة مسيئة وتمييزية وضارة. وقد تم رفع الدعوى في محكمة فيدرالية، وقد تشكّل سابقة قانونية في الجدل العالمي المتصاعد حول الذكاء الاصطناعي، المسؤولية الرقمية، وحقوق الإنسان على الإنترنت.

تسلط هذه القضية الضوء على كيفية استخدام عمالقة التكنولوجيا للذكاء الاصطناعي، وكيفية تفسير هذه التكنولوجيا للمدخلات البشرية، والأهم من ذلك، من يتحمل المسؤولية عندما تسوء الأمور. فمع اندماج الذكاء الاصطناعي في تفاصيل الحياة اليومية — من روبوتات الدردشة والمساعدين الافتراضيين إلى الإشراف على المحتوى والإعلانات الموجهة — بدأ الجمهور في طرح الأسئلة الصعبة: هل هذه الأدوات محايدة حقًا؟ من تخدم، ومن تسكت؟

الحادثة التي فجرت القضية

الدعوى قدمتها الدكتورة مايا تي. كولدويل، محامية وناشطة معروفة في شيكاغو. تملك سجلًا طويلاً في الدفاع عن المساواة العرقية والجندرية، وكانت تتعامل مع دعم العملاء في "ميتا" بعد أن لاحظت أن صفحة منظمتها غير الربحية على فيسبوك قد تم تقييد ظهورها دون سبب واضح.

طرحت كولدويل سؤالًا بسيطًا: "لماذا تم تصنيف منشورنا حول حقوق النساء في السودان على أنه خطاب كراهية؟"

لكن الرد التلقائي من الذكاء الاصطناعي في "ميتا" كان صادمًا: "محتواكم ينتهك معايير المجتمع المتعلقة بالتطرف. يُرجى الامتناع عن نشر الأيديولوجيات الضارة."

توالت الردود الآلية الباردة التي لم تقدم أي توضيح أو تدخل بشري، رغم محاولاتها المتكررة للطعن في القرار. لكن العبارة التي دفعتها لاتخاذ إجراء قانوني كانت:

"تم تصنيف حسابكم على أنه ينتهج نمطًا متكررًا يتماشى مع نشر معلومات مضللة حول مواضيع سياسية حساسة."

بالنسبة لكولدويل، وهي امرأة أمريكية من أصول إفريقية كرّست حياتها للدفاع عن الأصوات المهمشة، فإن تصنيفها كعنصر تخريبي كان أكثر من مجرد خطأ تقني. لقد شعرت بأنها ضحية "تغريب مؤسسي"، ليس من شخص، بل من آلة مدعومة بأحد أكبر الكيانات التكنولوجية في العالم.

جوهر الدعوى القضائية

تزعم الدعوى التي تتكون من 75 صفحة أن أنظمة الذكاء الاصطناعي في "ميتا" مارست تمييزًا خوارزميًا، منتهكة حقوق كولدويل الدستورية، بما في ذلك حرية التعبير والمساواة أمام القانون. وتستند الدعوى إلى مواد من الدستور الأمريكي وقوانين فيدرالية، بالإضافة إلى مواثيق حقوق الإنسان الدولية.

فريقها القانوني يجادل بأن أنظمة "ميتا" اللغوية مبنية على نماذج خوارزمية منحازة ضد أنماط لغوية ومواضيع معينة، لا سيما تلك التي تتعلق بالعدالة الاجتماعية أو القضايا العرقية والجندرية. وتشمل مزاعم الدعوى:

  • الذكاء الاصطناعي لدى ميتا يفرض رقابة غير متوازنة على النشطاء والمنظمات الحقوقية.

  • لا توجد رقابة بشرية فعّالة على قرارات الذكاء الاصطناعي.

  • نظام "الاستجابة" الآلي يعمل كقاضٍ وهيئة محلفين رقمية، دون أي إمكانية حقيقية للاستئناف.

قال محاميها جوليان بارك خلال مؤتمر صحفي:

"لقد بنت ميتا قلعة من الأنظمة المؤتمتة التي تعمل دون تعاطف أو شفافية. إنه نوع من الاستبداد الرقمي مغلف بالراحة."

هل هي مجرد حالة فردية؟

على الرغم من أن دعوى كولدويل قانونية فريدة من نوعها، إلا أنها ليست الوحيدة. على مدار العام الماضي، وثّقت منظمات حقوق رقمية مثل مؤسسة EFF (مؤسسة الحدود الإلكترونية) مئات الحالات التي تعامل فيها نظام "ميتا" مع محتوى اجتماعي أو سياسي بطريقة قمعية وغير دقيقة.

في الغالب، كان المتضررون من فئات من النشطاء: محتجون على تغير المناخ، مدافعون عن حقوق المرأة، مؤيدون للقضية الفلسطينية، أو نشطاء السكان الأصليين.

وبحسب تقرير EFF، فإن أنظمة الذكاء الاصطناعي لدى ميتا كثيرًا ما تحذف أو تقلل من ظهور منشورات لا تحتوي على أي خطاب كراهية، ولكنها تفتقد للسياق الضروري الذي يتجاهله الذكاء الاصطناعي.

رد "ميتا"

أصدرت شركة "ميتا" بيانًا مقتضبًا جاء فيه أنها "تأخذ هذه الادعاءات على محمل الجد وتقوم بمراجعتها." وأضاف المتحدث الرسمي أن الشركة تعتمد على الذكاء الاصطناعي والمراجعين البشريين معًا لضمان تطبيق عادل للسياسات.

لكن هذا الرد لم يُقنع الكثيرين.

"لا يمكن لميتا أن تواصل الاختباء خلف عبارة ‘نحن نعمل على تحسينه’ إلى الأبد"، قال خبير الأخلاقيات الرقمية الدكتور راجيف سينغ. "عندما تتخذ الخوارزميات قرارات تمس الحقوق والحياة، يجب أن تكون هذه القرارات قابلة للتفسير والمراجعة."

النقاش العالمي حول محاسبة الذكاء الاصطناعي

تتفرع هذه القضية إلى نقاشات أوسع في العديد من الدول حول العالم:

  • التحيز الخوارزمي: من أنظمة التوظيف إلى التعرف على الوجوه، أثبت الذكاء الاصطناعي مرارًا وتكرارًا أنه قد يعيد إنتاج التحيزات البشرية أو يزيدها.

  • غياب التشريعات: في الولايات المتحدة، لا تزال تقنيات الذكاء الاصطناعي خارج نطاق الضبط القانوني. على النقيض، الاتحاد الأوروبي يعمل على تشريع شامل (قانون الذكاء الاصطناعي).

  • الصندوق الأسود: العديد من نماذج الذكاء الاصطناعي لا يمكن تفسير مخرجاتها بسهولة، حتى من قبل مطوريها.

  • المسؤولية القانونية: عندما يصدر الذكاء الاصطناعي قرارًا خاطئًا، من المسؤول قانونيًا؟ المبرمج؟ الشركة؟ النظام نفسه؟

هذه القضية قد تصبح أساسًا لإنشاء أطر قانونية جديدة لتنظيم الذكاء الاصطناعي، خصوصًا في حالات تأثيره المباشر على الخطاب العام والحريات الأساسية.

أصوات من المجتمع الحقوقي

سارع العديد من النشطاء إلى دعم الدكتورة كولدويل، حيث انتشرت وسوم مثل #MetaOnTrial و**#عدالة_الذكاء_الاصطناعي** و**#SiliconBias** على منصات التواصل.

غردت نادين رينولدز، المديرة التنفيذية لمنظمة "أصوات للمهمشين":

"ميتا حذفت منشورنا عن النساء المفقودات من السكان الأصليين دون سبب واضح. لا تفسير، ولا اعتذار. نحن نقف مع الدكتورة كولدويل."

كما دعت منظمات مثل "مركز التكنولوجيا الإنسانية" إلى تدقيق خارجي مستقل في أنظمة ميتا، وسرعة إقرار تشريع أمريكي خاص بمحاسبة الذكاء الاصطناعي.

الأثر النفسي للتمييز الخوارزمي

وصفت كولدويل تجربتها بأنها "لاإنسانية". وخلال خطابها في كلية الحقوق بجامعة جورجتاون، تحدثت عن شعورها بالإلغاء:

"عندما يتجاهلك إنسان، تظل هناك فرصة للتفاهم. لكن عندما يغلق الذكاء الاصطناعي الباب، فإنه لا يُسكتك فحسب — بل يُلغي وجودك."

هذه التجربة ليست مجرد مسألة تقنية، بل تتعلق بمن يُسمح له بالتحدث في الساحة الرقمية الحديثة، ومن يُجبر على الصمت.

حملة "الإنسان أولًا"

أطلقت كولدويل حملة بعنوان "الإنسان قبل الخوارزميات"، تهدف إلى:

  • فرض رقابة بشرية حقيقية على قرارات الذكاء الاصطناعي.

  • إنشاء آليات استئناف عادلة.

  • تحقيق الشفافية في كيفية تصنيف المحتوى.

كما تسعى الحملة إلى تمرير ما يُعرف بـ "وثيقة حقوق مستخدمي الذكاء الاصطناعي"، وهي مبادرة لاقت دعمًا من مشرّعين وأكاديميين ومؤسسات حقوقية.

الختام: لماذا هذه القضية مهمة؟

في عصر تحدد فيه الخوارزميات من يُشاهد، ومن يُمنع، ومن يُعاقب، تُجبر الأنظمة القانونية على مواكبة التطور التكنولوجي السريع. القضية ليست فقط ضد ميتا، بل ضد أي شركة تستخدم الذكاء الاصطناعي دون ضوابط أو شفافية.

نتائج هذه القضية قد تؤثر على سياسات المحتوى، تشريعات الذكاء الاصطناعي العالمية، وحقوق الإنسان في العصر الرقمي.


فقرة تعزيز محركات البحث (SEO):

تابع مدونتنا للاطلاع على آخر التطورات في قضايا الذكاء الاصطناعي القانونية، الرقابة على المحتوى الرقمي، وحقوق الإنسان في التكنولوجيا. نحن نوفر محتوى عالي الجودة عن دعاوى ميتا، التمييز الخوارزمي، قوانين محاسبة الذكاء الاصطناعي، وأحدث الاتجاهات في مجال التقنيات المؤثرة على الحريات المدنية. هذه المواضيع تندرج ضمن الكلمات المفتاحية الأكثر بحثًا في محركات البحث مثل: "الذكاء الاصطناعي وحقوق الإنسان"، "قانون ميتا"، "مخاطر الذكاء الاصطناعي"، و"التمييز الرقمي".


هل تود ترجمة هذا النص إلى الهندية أو الصينية أيضًا لتعزيز وصوله العالمي؟