كشفت دراسة حديثة صادرة عن شركة CodeRabbit، أن الاعتماد المتزايد على أدوات الذكاء الاصطناعي في كتابة الأكواد البرمجية لا يخلو من مخاطر، إذ أظهرت البيانات أن الكود المولد آليًا يحتوي على عدد أكبر من المشكلات والثغرات الأمنية مقارنة بالكود الذي يكتبه المطورون البشر.
هل أكواد الذكاء الاصطناعي أكثر أمنًا؟
ووفقًا للتقرير، بلغ متوسط المشكلات في طلبات الدمج (Pull Requests) التي ينتجها الذكاء الاصطناعي نحو 10.83 مشكلة، مقابل 6.45 مشكلة فقط في الأكواد البشرية.
كما سجل الكود المولد بالذكاء الاصطناعي ارتفاعًا ملحوظًا في المشكلات الخطيرة، بزيادة قدرها 1.4 مرة في المشكلات الحرجة، و1.7 مرة في المشكلات الكبرى.
وأوضحت البيانات، أن أهم المشكلات المرتبطة بالكود المولد آليًا تتركز في ثلاثة محاور رئيسية، يأتي في مقدمتها الأمان، مثل ضعف حماية كلمات المرور، واستخدام مراجع غير آمنة، وثغرات هجمات XSS، ومخاطر إلغاء التسلسل غير الآمن.
كما شملت المشكلات جوانب الأداء والمنطق البرمجي، إلى جانب تحديات تتعلق بـ جودة الكود وقابليته للصيانة والتنظيم.
ورغم هذه المخاطر، أشار التقرير إلى جوانب إيجابية لاستخدام الذكاء الاصطناعي، إذ ساهم في تقليل الأخطاء الإملائية بنسبة أقل بنحو 1.76 مرة، كما خفّض مشكلات اختبار الكود بمعدل 1.32 مرة مقارنة بالكود البشري.
وقال ديفيد لوكر، مدير الذكاء الاصطناعي في CodeRabbit، إن أدوات الذكاء الاصطناعي تعزز الإنتاجية بشكل واضح، لكنها في الوقت نفسه تخلق نقاط ضعف يمكن التنبؤ بها، ما يتطلب من المؤسسات التعامل معها بوعي وإدارة نشطة.

وتخلص الدراسة إلى أن الكود المولد بالذكاء الاصطناعي لا يمكن اعتباره بديلًا كاملًا عن المطورين، بل يحتاج إلى مراجعة بشرية دقيقة لضمان الأمان والجودة.
وفي المقابل، يمكن لهذه الأدوات تسريع المهام الروتينية والمراحل الأولية من التطوير، مع تحول دور المبرمجين تدريجيًا نحو الإشراف والمراجعة بدلًا من كتابة الكود بالكامل.
ومع التطور المستمر لنماذج الذكاء الاصطناعي، مثل عائلة GPT، يتوقع الباحثون تراجع معدلات الأخطاء مستقبلًا، إلا أن العنصر البشري يظل عاملًا حاسمًا في ضمان موثوقية وأمان البرمجيات.
نقلاً عن : الجمهور الاخباري

تعليقات