ektsadna.com
العملات الرقمية الرائدة

هل تقلصات DOGE تخرب حافة الذكاء الاصطناعي الأمريكية؟

“`html




هل تقلصات DOGE تخرب حافة الذكاء الاصطناعي الأمريكية؟

هل تقلصات DOGE تخرب حافة الذكاء الاصطناعي الأمريكية؟

المقال التالي هو رأي و من أحمد شديد، مؤسس O.xyz.

تحت ستار واهٍ من الكفاءة، تقوم وزارة الكفاءة الحكومية (DOGE) بتقويض قوتها العاملة. يشير مستقل إلى أن DOGE خفضت حوالي 222,000 وظيفة في شهر مارس وحده. تضرب التخفيضات بقوة أكبر في المجالات التي لا تستطيع الولايات المتحدة أن تتخلف فيها – الذكاء الاصطناعي وتطوير أشباه الموصلات.

ما وراء تقويض القوى العاملة

السؤال الأكبر الآن يتجاوز تقويض القوى العاملة – وهو أن وزارة الكفاءة الحكومية التابعة لإيلون ماسك تستخدم الذكاء الاصطناعي للتجسس على اتصالات الموظفين الفيدراليين، بحثًا عن أي أثر لعدم الولاء. وقد بدأت بالفعل بالتسلل حول وكالة حماية البيئة.

يبدو اندفاع DOGE القائم على الذكاء الاصطناعي لتقليص الوكالات الفيدرالية وكأنه وادي السيليكون الخارج عن السيطرة – الاستيلاء على البيانات وأتمتة الوظائف والتسرع في إخراج أدوات غير مكتملة مثل روبوت الدردشة “بمستوى متدرب” التابع لإدارة الخدمات العامة (GSA) لتبرير التخفيضات. إنه أمر متهور.

بالإضافة إلى ذلك، وفقًا لتقرير – يقوم “تكنولوجيو” DOGE بنشر Grok التابع لإيلون ماسك لمراقبة موظفي وكالة حماية البيئة مع خطط لإجراء تخفيضات حكومية واسعة النطاق.

يواجه الموظفون الفيدراليون، الذين اعتادوا منذ فترة طويلة على شفافية البريد الإلكتروني بسبب قوانين السجلات العامة، الآن أدوات فائقة الذكاء تقوم بتشريح كل كلمة ينطقون بها.

كيف يمكن للموظفين الفيدراليين الوثوق بنظام حيث يتم إقران مراقبة الذكاء الاصطناعي بالتسريح الجماعي؟ هل تنزلق الولايات المتحدة بهدوء نحو ديستوبيا مراقبة، مع تضخيم الذكاء الاصطناعي للتهديد؟

المراقبة المدعومة بالذكاء الاصطناعي

هل يمكن الوثوق بنموذج الذكاء الاصطناعي المدرب على البيانات الحكومية؟ بالإضافة إلى ذلك، فإن استخدام الذكاء الاصطناعي في بيروقراطية معقدة يدعو إلى المخاطر الكلاسيكية: التحيزات – وهي قضايا تشير إليها صفحة مساعدة GSA الخاصة دون تطبيق واضح.

يشكل التوحيد المتزايد للمعلومات داخل نماذج الذكاء الاصطناعي تهديدًا متزايدًا للخصوصية. بالإضافة إلى ذلك، تنتهك ماسك و DOGE أيضًا قانون الخصوصية لعام 1974. دخل قانون الخصوصية لعام 1974 حيز التنفيذ خلال فضيحة ووترغيت التي تهدف إلى الحد من إساءة استخدام البيانات التي تحتفظ بها الحكومة.

وفقًا للقانون – لا يجوز لأي شخص، ولا حتى موظفي الحكومة الخاصين – الوصول إلى “أنظمة السجلات” الخاصة بالوكالة دون ترخيص قانوني مناسب. يبدو الآن أن DOGE تنتهك قانون الخصوصية باسم الكفاءة. هل يستحق الدفع من أجل الكفاءة الحكومية تعريض خصوصية الأمريكيين للخطر؟

لم تعد المراقبة مجرد كاميرات أو كلمات رئيسية. يتعلق الأمر بمن يعالج الإشارات، ومن يمتلك النماذج، ومن يقرر ما هو مهم. بدون حوكمة عامة قوية، ينتهي هذا الاتجاه ببنية تحتية تسيطر عليها الشركات تشكل الطريقة التي تعمل بها الحكومة. إنه يضع سابقة خطيرة. ستضعف ثقة الجمهور في الذكاء الاصطناعي إذا اعتقد الناس أن القرارات تتخذها أنظمة غير شفافة خارج نطاق السيطرة الديمقراطية. من المفترض أن تضع الحكومة الفيدرالية المعايير، وليس أن تعهد بها إلى مصادر خارجية.

ما هو على المحك؟

قامت المؤسسة الوطنية للعلوم (NSF) مؤخرًا بتسريح أكثر من 150 موظفًا، وتشير التقارير الداخلية إلى أن هناك تخفيضات أعمق قادمة. تمول NSF أبحاث الذكاء الاصطناعي وأشباه الموصلات الحاسمة في الجامعات والمؤسسات العامة. تدعم هذه البرامج كل شيء بدءًا من نماذج التعلم الآلي الأساسية وحتى ابتكار بنية الرقائق. يقترح البيت الأبيض أيضًا خفض ميزانية NSF بمقدار الثلثين. هذا يقضي على القاعدة التي تدعم القدرة التنافسية الأمريكية في مجال الذكاء الاصطناعي.

يواجه المعهد الوطني للمعايير والتكنولوجيا (NIST) ضررًا مماثلاً. ما يقرب من 500 موظف في NIST على وشك الفصل. ويشمل ذلك معظم الفرق المسؤولة عن برامج الحوافز واستراتيجيات البحث والتطوير الخاصة بقانون CHIPS. تدير NIST معهد الولايات المتحدة لسلامة الذكاء الاصطناعي وأنشأت إطار عمل إدارة مخاطر الذكاء الاصطناعي.

هل تقوم DOGE بتغذية البيانات العامة السرية للقطاع الخاص؟

تثير مشاركة DOGE أيضًا قلقًا أكثر أهمية بشأن السرية. اكتسبت الإدارة بهدوء وصولاً شاملاً إلى السجلات الفيدرالية ومجموعات بيانات الوكالات. تشير التقارير إلى أن أدوات الذكاء الاصطناعي تقوم بتمشيط هذه البيانات لتحديد الوظائف المراد أتمتتها. لذا، تسمح الإدارة الآن لجهات خاصة بمعالجة معلومات حساسة حول العمليات الحكومية والخدمات العامة وسير العمل التنظيمي.

هذا هو مضاعف المخاطر. تحتاج أنظمة الذكاء الاصطناعي المدربة على البيانات الحساسة إلى إشراف، وليس مجرد أهداف الكفاءة. تنقل هذه الخطوة البيانات العامة إلى أيدي القطاع الخاص دون ضمانات سياسية واضحة. كما أنه يفتح الباب أمام الأنظمة المتحيزة أو غير الدقيقة التي تتخذ قرارات تؤثر على حياة حقيقية. الخوارزميات لا تحل محل المساءلة.

لا توجد شفافية حول البيانات التي تستخدمها DOGE، أو النماذج التي تنشرها، أو كيف تتحقق الوكالات من المخرجات. يتم إنهاء خدمات الموظفين الفيدراليين بناءً على توصيات الذكاء الاصطناعي. المنطق والأوزان والافتراضات الخاصة بهذه النماذج غير متاحة للجمهور. هذا فشل في الحوكمة.

ماذا تتوقع؟

المراقبة لا تجعل الحكومة فعالة، فبدون قواعد أو إشراف أو حتى شفافية أساسية، فإنها تثير الخوف. وعندما يتم استخدام الذكاء الاصطناعي لمراقبة الولاء أو الإشارة إلى كلمات مثل “التنوع”، فإننا لا نقوم بتبسيط الحكومة – بل نقوض الثقة فيها.

لا ينبغي أن يتساءل الموظفون الفيدراليون عما إذا كانوا يخضعون للمراقبة بسبب قيامهم بوظائفهم أو قول الشيء الخطأ في اجتماع. وهذا يسلط الضوء أيضًا على الحاجة إلى نماذج أفضل وأكثر موثوقية يمكنها تلبية التحديات والمعايير المحددة المطلوبة في الخدمة العامة.

The post Are DOGE’s cuts are sabotaging America’s AI edge? appeared first on CryptoSlate.

“`

مواضيع مشابهة