قد يحل Doge AI محل بعض موظفي الحكومة

قد يكون استخدام الذكاء الاصطناعي لاستبدال بعض القوى العاملة الحكومية إحدى الطرق لوزارة الكفاءة الحكومية (DOGE) للتعويض عن القوى العاملة المفقودة ، على افتراض الخطة الجديدة التي تصنعها. قد يكون أيضًا أحدث جدل يتعلق بـ Doge في تاريخ الإدارة القصير. ذلك لأننا ما زلنا في الأيام الأولى من الذكاء الاصطناعي ، ولا يمكن أن تحل Chatbots استبدال البشر بالكامل بأي درجة من الموثوقية.
ومع ذلك ، ستقوم Doge بنشر برنامج GSAI (أو GSA Chat) إلى ما يصل إلى 1500 عامل فيدرالي ، مع خطط لإتاحته لأكثر من 10000 موظف من موظفي GSA – وهو ما يمثل القوى العاملة بأكملها للوكالة. GSA هي إدارة الخدمات العامة ، وهي فرع حكومي أمريكي يدير العقود والخدمات التي تزيد قيمتها على 100 مليار دولار.
بدأ تطوير GSAI العام الماضي تحت إدارة Biden كبرنامج اختبار مع درابزين محددة في المكان. ألغت إدارة ترامب بالفعل أمر بايدن التنفيذي بشأن سلامة الذكاء الاصطناعى وتسريعت بقوة تطوير ونشر GSAI.
خرجت خطط دوج مع GSAI ، مع المحيط الأطلسي بعد التحدث مع موظفي GSA الحاليين والسابقين مع الوصول إلى البرنامج. المحيط الأطلسي تمكنت أيضًا من الوصول إلى المستندات الداخلية والتسجيلات ورمز GSAI ، الذي يتوفر على Github.
بدأت GSAI تحت إدارة بايدن. قام فريق تقنية GSA صغير ، المعروف باسم 10x ، بتصميم الذكاء الاصطناعى كاختبار لمثل هذه البرامج. كان البرنامج معروفًا باسم “10x AI Sandbox” في ذلك الوقت ولم يكن من المفترض أن يكون chatbot مثل ChatGPT. بدلاً من ذلك ، كان من المفترض أن تكون بيئة فعالة من حيث التكلفة للموظفين الفيدراليين لاختبار الذكاء الاصطناعي واستخدامها لعملهم المحدد.
بمجرد تولي إدارة ترامب ، أقلعت مشروع الذكاء الاصطناعى تحت دوج ، ليصبح جائزة GSAI الحالية. دفعت Doge Allies إلى تسريع تطورها تمامًا كما بدأت الإدارة في إطلاق الموظفين أو تشجيع الاستقالات.
يشير التقرير إلى أن GSAI يشبه إلى حد كبير ChatGPT. يحتوي على مربع موجه حيث يصدر المستخدمون الأوامر ، ويستجيب chatbot. يمكن لوكالة الذكاء الاصطناعى صياغة رسائل البريد الإلكتروني ، وكتابة الرمز ، و “أكثر من ذلك بكثير!” هذا وفقًا لرسالة بريد إلكتروني داخلية من كبير ضباط الذكاء الاصطناعي في GSA ، زاك ويتمان.
تدعم GSAI النماذج من Meta و Anthropic ، لكنها ليست متقدمة مثل بعض برامج AI التجارية. على سبيل المثال ، لا يمكنك تحميل المستندات إلى chatbot الآن ، ولكن قد تدعمها الإصدارات المستقبلية.
المحيط الأطلسي تلاحظ أنه يمكن استخدام GSAI للمهام الأكثر تعقيدًا في المستقبل:
أخبرني عامل GSA أن البرنامج يمكن استخدامه للتخطيط لتخطيط المشاريع الحكومية على نطاق واسع أو تخفيضات إعلام سارية أو الاستعلام عن مستودعات مركزية للبيانات الفيدرالية.
يلاحظ التقرير أيضًا ملاحظات من توماس شيد في اجتماع حديث في خدمات تحويل التكنولوجيا (TTS) ، قسم تكنولوجيا المعلومات في GSA. مهندس Tesla السابق ، Shedd هو الآن مدير TTS. وقال إن الوكالة تدفع “استراتيجية منظمة العفو الدولية الأولى” ، حيث يمكن للتكنولوجيا والأتمتة تعويض القوى العاملة البشرية التي انتهت بها دوج.
وقال شيد إن “وكلاء الترميز” يمكن توظيفهم في جميع أنحاء الحكومة ، ويمكن أن “منظمة العفو الدولية” إجراء تحليل على العقود “. يمكن استخدام البرامج “لأتمتة” “وظيفة التمويل” لـ GSA. كل هذا يبدو ممكنًا ، حيث وصلنا إلى مكان توجد فيه وكلاء الترميز ، على الأقل من شركات الذكاء الاصطناعى التي تنشر منتجات تجارية. لكن من المثير للتمني أيضًا التفكير في الوقت الحالي ، بالنظر إلى أن GSAI لا يمكن أن تكون متقدمة مثل ChatGPT و Claude و AIs التجارية الأخرى التي تلقت ميزات الوكيل.
يذكر التقرير اجتماعًا آخر حيث قال Shedd إن TTS نفسها قد تصبح “أصغر بنسبة 50 في المائة على الأقل” في غضون أسابيع. يضم TTS أيضًا الفريق الذي بنى GSAI. يمكن أن يكون ذلك مشكلة لتطوير أداة AI الداخلية هذه.
المحيط الأطلسي يشير أيضًا إلى رغبة إدارة ترامب في إخراج البرنامج بسرعة دون تحديد ما إذا كان سيكون مناسبًا للعمل الحكومي. كانت الخطة الأولية لهذا الذكاء الاصطناعي هي اختبار منتجات AI للعمل الحكومي بدلاً من الاعتماد عليها في كل مهمة.
حذر موظف سابق في GSA من بعض المخاطر الواضحة مع GSAI بأن دوجي لا يبدو أنه معني:
“إنهم يريدون إعدام بيانات التعاقد في منظمة العفو الدولية لتحليلها للاحتيال المحتمل ، وهو هدف رائع. وأيضًا ، إذا استطعنا فعل ذلك ، فسنقوم بذلك بالفعل. ” قال الموظف: “إن استخدام الذكاء الاصطناعي يخلق” خطرًا كبيرًا للغاية لإيجابيات كاذبة “، ولا أرى أي شيء يعتبر بمثابة شيك ضد ذلك”.
يلاحظ التقرير أن صفحة المساعدة لمستخدمي GSAI في وقت مبكر توفر تحذيرات حول الهلوسة الذكاء الاصطناعى ، و “الاستجابات المتحيزة أو الصور النمطية المدمرة” ، و “قضايا الخصوصية”. كما يطلب من المستخدمين عدم تضمين معلومات شخصية أو معلومات حساسة غير مصنفة في الدردشات مع الذكاء الاصطناعي. ومع ذلك ، من غير الواضح ما إذا كان أي شخص يفرض سلامة الذكاء الاصطناعي.
بالنظر إلى أن الأمر استغرق سنوات لبرامج مثل ChatGpt و Claude و Gemini و Deepseek للوصول إلى ما هي عليه اليوم ، بما في ذلك الدعم المبكر للسلوك العامل حيث يمكن لـ AI القيام بالتصفح والترميز من تلقاء نفسه استجابةً لمطالبة ، من غير المحتمل أن يعرض GSAI تطورًا مشابهًا. لقد هرع chatbot عمره أشهر إلى الأمام خلال الأوقات المضطربة. سوف يستغرق الأمر وقتًا وتفانيًا لجعله قويًا مثل ChatGPT.
وفي الوقت نفسه ، يمكنك ويجب التحقق المحيط الأطلسي تقرير كامل في هذا الرابط.