اقترح باحثون نظاما جديدا للتحقق من هوية مستخدم الخدمات الرقمية، سواء كان من البشر أم روبوتات الذكاء الاصطناعي،
وأطلقوا عليه اسم “إثبات الهوية البشرية” (PHC)، ليحل محل الأنظمة المتبعة الحالية مثل CAPTCHAs، والذي أظهرت الدراسات عدم جدواها في مواجهة التحديات الحديثة.
وأفادت دراسة حديثة أن خبراء من جامعات مرموقة وشركات بارزة مثل OpenAI ومايكروسوفت قد أشاروا إلى أن نظام “إثبات الهوية البشرية” (PHC) تم تطويره نتيجة مخاوف من استغلال “الجهات الخبيثة” لقدرات الذكاء الاصطناعي المتقدمة في تقليد السلوك البشري بشكل مقنع لملء الإنترنت بمحتوى غير بشري.
ومن أكبر هذه المخاوف كانت قدرة تكنولوجيا الذكاء الاصطناعي على إنتاج محتوى يبدو وكأنه يعبر عن تجارب أو وجهات نظر شبيهة بالإنسان، وإنشاء صور رقمية تشبه البشر الحقيقيين.
وبالإضافة إلى ذلك، تزداد مهارة روبوتات الذكاء الاصطناعي في محاكاة السلوكيات البشرية على الإنترنت، مثل حل ألغاز CAPTCHA.
تحديات كبرى
يعتبر الباحثون أن فكرة نظام “إثبات الهوية البشرية” (PHC)، يمكن للحكومات أو الشركات من خلاله إصدار شهادات هوية رقمية فريدة لكل مستخدم باستخدام تقنية التشفير المعروفة بـ”إثباتات المعرفة الصفرية”، والتي تسمح للمستخدمين بتقديم معلومات محددة دون الكشف عن تفاصيل البيانات الفعلية.
ويتم تخزين هذه الشهادات على الأجهزة الشخصية للمستخدمين، ما يساعد في الحفاظ على الخصوصية عبر الإنترنت.
ويمكن أن يحل نظام الشهادات مكان عمليات التحقق التقليدية مثل CAPTCHAs، وكذلك القياسات البيومترية مثل بصمات الأصابع، والذي يعتبر بديل أكثر أمانا. ومع ذلك، يعترف الباحثون بأن النظام ليس خاليا من العيوب.
وعلى سبيل المثال، هناك احتمال أن يقوم البعض ببيع شهاداتهم للمحتالين، مما يمنح المحتوى الآلي مصداقية زائفة ويقوض أهداف المشروع.
كما أن أي مؤسسة تصدر هذه الشهادات قد تصبح ذات نفوذ كبير، ويظل النظام عُرضة للهجمات السيبرانية.
وأوضحت الورقة البحثية أن “أحد التحديات الكبيرة لنظام ‘إثبات الهوية البشرية’ (PHC) هو كيفية تركز السلطة في يد عدد محدود من المؤسسات، خاصة مصدري الشهادات، بالإضافة إلى مقدمي الخدمات الكبار الذين ستؤثر قراراتهم بشأن استخدام الشهادات بشكل كبير على النظام”.
كما أن هذا النظام قد يشكل عائقاً أمام المستخدمين غير المتمكنين تقنياً، مثل كبار السن الذين غالباً ما يكونون هدفاً للاحتيال عبر الإنترنت.
ولهذا السبب، يقترح الباحثون أن تضع الحكومات نظام PHC ضمن برامج تجريبية لاختباره.
تحديات جوهرية
ويبقى نظام PHC متجنباً لمشكلة جوهرية تتمثل في زيادة الأعباء الرقمية على المستخدمين، والذين يتعين عليهم التعامل مع الرسائل غير المرغوب فيها وغيرها من المشكلات الرقمية في حياتهم اليومية، والذي ومن المفترض أن تكون شركات التكنولوجيا هي المسؤولة عن حلها، وليس المستخدمين.
كما يمكن لشركات التكنولوجيا أن تبدأ بإضافة علامات مائية على المحتوى الذي تنتجه نماذج الذكاء الاصطناعي الخاصة بها، أو تطوير آليات للكشف عن المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي.
وعلى الرغم من أن هذه الحلول ليست نهائية، إلا أنها تعيد المسؤولية إلى مصدر المشكلة.
وفي حالة تجاهل شركات التكنولوجيا لهذه المسؤولية، سيكون ذلك وصمة أخرى على سجل وادي السيليكون، الذي كان معروفاً بإثارة مشكلات لم يطلب حلها، بينما يحقق أرباحاً من تأثيراتها.
وتشبه هذه المشكلة استهلاك شركات التكنولوجيا لكميات هائلة من الكهرباء والمياه لتشغيل مراكز البيانات الخاصة بالذكاء الاصطناعي، في الوقت الذي تعاني فيه المجتمعات، خاصة في المناطق التي تعاني من الجفاف، من نقص حاد في هذه الموارد الأساسية.
وعلى الرغم من أن نظام PHC قد يبدو جذاباً على الورق، إلا أنه في الواقع يعيد نقل العبء إلى المستخدمين مرة أخرى.
aXA6IDEzNS4xODEuMTEuMTYyIA==
جزيرة ام اند امز
مصدر الخبر الأصلي: صحيفة العين الاخبارية