توقعت جارتنر، في أبحاث وتحليلات الأعمال والتكنولوجيا، أن تعتمد 50% من المؤسسات حول العالم نهج «الثقة المعدومة» (Zero Trust) في حوكمة البيانات بحلول عام 2028، وذلك في ظل الانتشار المتزايد للبيانات غير الموثوقة التي يتم توليدها باستخدام تقنيات الذكاء الاصطناعي.
وقال وان فوي تشان، نائب الرئيس التنفيذي لدى جارتنر، إن المؤسسات لم تعد قادرة على منح البيانات ثقة تلقائية أو افتراض أنها من إنتاج الإنسان، موضحًا أن تزايد البيانات المولدة بالذكاء الاصطناعي وصعوبة التمييز بينها وبين البيانات البشرية يجعل من تبني نهج «الثقة المعدومة» القائم على آليات واضحة للمصادقة والتحقق أمرًا ضروريًا لحماية النتائج التجارية والمالية.
البيانات المولدة بالذكاء الاصطناعي ومخاطر انهيار النماذج
وأوضح التقرير أن نماذج اللغات الكبيرة (LLMs) يتم تدريبها عادةً على بيانات مأخوذة من الإنترنت، إلى جانب الكتب، ومستودعات الشيفرات البرمجية، والأوراق البحثية، وهي مصادر تحتوي بالفعل على قدر متزايد من المحتوى المُولَّد بالذكاء الاصطناعي. ومع استمرار هذا الاتجاه، من المتوقع أن تصبح الغالبية العظمى من مصادر التدريب ملوثة ببيانات مولدة آليًا.
ووفقًا لاستطلاع جارتنر لمديري تقنية المعلومات وكبار التنفيذيين في قطاع التكنولوجيا لعام 2026، يتوقع 84% من المشاركين زيادة مخصصات التمويل لتقنيات الذكاء الاصطناعي التوليدي، ما سيؤدي إلى نمو متسارع في حجم البيانات المولدة بهذه التقنيات.
وأشار تشان إلى أن تدريب الأجيال المقبلة من النماذج على مخرجات نماذج سابقة يرفع احتمالات ما يُعرف بـ «انهيار النماذج»، حيث تفقد أدوات الذكاء الاصطناعي تدريجيًا قدرتها على تمثيل الواقع بدقة، ما ينعكس سلبًا على جودة القرارات والنتائج.
تشديد تنظيمي ومتطلبات امتثال متباينة
وتوقعت جارتنر أن تشهد بعض المناطق تشديدًا في المتطلبات التنظيمية للتحقق من البيانات "الخالية من الذكاء الاصطناعي"، مع اختلاف مستويات الرقابة من دولة إلى أخرى، بين أطر صارمة وأخرى أكثر مرونة.
وأكد تشان أن هذا المشهد التنظيمي المتغير يفرض على المؤسسات امتلاك قدرات واضحة لتحديد وتصنيف البيانات المولدة بالذكاء الاصطناعي، وهو ما يتطلب أدوات متقدمة، وكوادر متخصصة في إدارة المعلومات والمعرفة، إلى جانب حلول فعّالة لإدارة البيانات الوصفية (Metadata).
وأضاف أن ممارسات إدارة البيانات الوصفية النشطة ستتحول إلى عامل تميز رئيسي، لما توفره من قدرة على تحليل البيانات، وإطلاق التنبيهات، وأتمتة عمليات اتخاذ القرار عبر مختلف أصول البيانات.
توصيات لإدارة مخاطر البيانات غير الموثوقة
ودعت جارتنر المؤسسات إلى تبني مجموعة من الإجراءات الاستراتيجية للحد من مخاطر البيانات غير المتحقق من موثوقيتها، أبرزها:
- تعيين مسؤول لحوكمة الذكاء الاصطناعي يتولى الإشراف على تطبيق نهج الثقة المعدومة وإدارة مخاطر الامتثال.
- تعزيز التعاون متعدد التخصصات بين فرق الأمن السيبراني والبيانات والتحليلات لتقييم المخاطر التجارية المرتبطة بالبيانات المولدة بالذكاء الاصطناعي.
- الاستفادة من أطر الحوكمة القائمة مع تحديث سياسات الأمن والبيانات الوصفية والأطر الأخلاقية.
- اعتماد ممارسات نشطة لإدارة البيانات الوصفية لإطلاق تنبيهات فورية عند تقادم البيانات أو الحاجة إلى إعادة اعتمادها.
وأكد التقرير أن التعامل المنهجي مع هذه التحديات سيكون عنصرًا حاسمًا في قدرة المؤسسات على تحقيق الاستفادة الآمنة والمستدامة من تقنيات الذكاء الاصطناعي خلال السنوات المقبلة.