جوجل تطلق Gemini CLI .. وكيل ذكاء اصطناعي مفتوح المصدر

5 days ago 4

أطلقت جوجل أداة ذكاء اصطناعي جديدة تعمل بطريقة “وكيلة” (agentic) تهدف إلى تقريب نماذج Gemini الخاصة بها من المكان الذي يكتب فيه المطورون الشيفرات بالفعل.

فقد أعلنت الشركة يوم الأربعاء على مدونتها عن إطلاق Gemini CLI، وهي أداة ذكاء اصطناعي تعمل محليا على جهاز المطور.

وتربط هذه الأداة نماذج جيميني Gemini بالرموز البرمجية المخزنة محليا، وتتيح للمطورين تقديم طلبات بلغة طبيعية، مثل طلب شرح أقسام معقدة من الشيفرة، أو كتابة ميزات جديدة، أو تصحيح الأخطاء، أو تنفيذ أوامر مباشرة.

وتندرج هذه الأداة ضمن جهود جوجل لجعل المطورين يستخدمون نماذج الذكاء الاصطناعي الخاصة بها ضمن سير عملهم اليومي.

وتقدّم جوجل بالفعل مجموعة أدوات برمجية مدعومة بالذكاء الاصطناعي مثل Gemini Code Assist والمساعد البرمجي غير التزامني Jules، لكن Gemini CLI ينافس بشكل مباشر أدوات ذكاء اصطناعي أخرى تعتمد على سطر الأوامر مثل Codex CLI من OpenAI وClaude Code من Anthropic، والتي يُعرف عنها سهولة التكامل وسرعتها وكفاءتها العالية.

منذ أن أطلقت جوجل نموذج Gemini 2.5 Pro في أبريل الماضي، أصبح هذا النموذج شائعًا بشكل كبير بين المطورين، ما ساهم في زيادة استخدام أدوات ذكاء اصطناعي طرف ثالث مثل Cursor وGitHub Copilot، والتي تحولت إلى مشاريع ضخمة. وردًا على ذلك، بدأت جوجل في محاولة بناء علاقة مباشرة مع المطورين عبر تقديم أدوات داخلية بديلة.

ورغم أن الاستخدام الأساسي لأداة Gemini CLI هو في البرمجة، إلا أن جوجل تقول إنها صممت الأداة لتكون متعددة الاستخدامات. يمكن للمطورين استخدامها لإنشاء فيديوهات عبر نموذج Veo 3، أو توليد تقارير بحثية باستخدام أداة Deep Research، أو الوصول إلى معلومات فورية عبر بحث جوجل. كما يمكن ربط الأداة بخوادم MCP، ما يتيح الوصول إلى قواعد بيانات خارجية.

ولتسريع تبني الأداة، قررت جوجل جعل Gemini CLI مفتوحة المصدر بموجب ترخيص Apache 2.0، الذي يُعتبر من أكثر التراخيص مرونة. وتتوقع الشركة أن يسهم مجتمع المطورين في تطوير الأداة عبر GitHub.

كما تعرض جوجل حدود استخدام سخية للمساعدة على اعتماد الأداة، حيث يمكن للمستخدمين المجانيين إجراء ما يصل إلى 60 طلبًا في الدقيقة و1,000 طلب يوميًا، وهو ما تقول الشركة إنه يعادل ضعف متوسط الاستخدام السابق للأداة.

ورغم تزايد شعبية أدوات الذكاء الاصطناعي المخصصة للبرمجة، فإن استخدامها لا يخلو من المخاطر. فوفقًا لاستطلاع أجرته Stack Overflow عام 2024، فإن 43٪ فقط من المطورين يثقون في دقة أدوات الذكاء الاصطناعي. كما أظهرت دراسات متعددة أن هذه الأدوات قد تنتج شيفرات بها أخطاء أو تفشل في معالجة ثغرات أمنية.

اذهب للمصدر