مقدّمة: لماذا السؤال مهم الآن؟
في عصر حيث تَنتج التطبيقات والنماذج الرقمية ملايين الإشارات عن سلوكنا (من لايكات إلى نصوص وصور ومقاطع صوت)، باتت ادّعاءات بعض أدوات الذكاء الاصطناعي بأنها «تعرِفك» أو «تحدّد شخصيتك» مسألة مركزية: هل يمكن للـAI فعلاً أن يكتشف هويتك الداخلية، أم أنه يُنتج صورة مبسطة باستناد إلى بيانات سطحية؟
البحث الأكاديمي أظهر أنَّ أنماطًا رقمية بسيطة أحياناً تستطيع توقع سمات شخصية أو ميول سياسية بمستويات أعلى من الحدسيات البشرية — مثال كلاسيكي هو تحليل "اللايكات" على فيسبوك وقابلية التنبؤ بسمات وحالات حسّاسة.
كيف تعمل أدوات تحليل الشخصية بالذكاء الاصطناعي؟
بشكل موجز، تعتمد هذه الأنظمة على ثلاث مجموعات رئيسية من الإشارات:
- الأثر الرقمي والسلوك: بيانات مثل الإعجابات، المنشورات، بحث الويب أو سلوك التصفح تُستخدم لبناء نماذج استنتاجية (digital footprints). هذه الأساليب أظهرت قدرة على التنبؤ بسمات ومعلومات حسّاسة في دراسات سابقة.
- النص واللغة: تحليل ما تكتبه أو كيف تتحدث (نبرة الصوت، اختيار الكلمات) باستخدام نماذج معالجة اللغة الطبيعية يمكنه استنتاج بعض أنماط السلوك النفسي والميول.
- السمات البيومترية والمتعددة الوسائط: صور الوجه، تعابير الوجه، أو تسجيلات صوتية تُستخدم لاستخلاص إشارات تُدّعى أنها مرتبطة بالانبساطية، الثقة، أو غيرها — لكن هذه الفئة من الاستدلالات مُثيرة للجدل وتعرضت لانتقادات حول الدقة والتحيّز.
تجاريًا، ظهر جيل من الشركات التي تبيع "معلومات سلوكية" لاستخدام فرق المبيعات والتوظيف مثل Humantic AI وCrystal وبدائلها؛ تُعدُّ هذه المنتجات أمثلة عملية على كيف تُجمَع بيانات عامة لتقديم ملفّات شخصية مختصرة عن أشخاص حقيقيين. لكن قابلية هذه التنبؤات للاستعمال في قرارات مصيرية (توظيف، تقييم أمان، رعاية صحية) محل نقاش علمي وأخلاقي.
ما حدود الدقة، وما المخاطر الواقعية؟
الدراسات والتدقيقات التقنية أظهرت نقاط ضعف وجدية في مخاطر إساءة الاستخدام:
- قابلية التكرار والموثوقية: مراجعات مستقلة لأدوات تجارية (مثل Humantic وCrystal) وجدت حساسية للزمن، لنوع المدخلات، ولصيغة السيرة الذاتية، وهو ما يقلّل من موثوقية النتائج في قرارات الأفراد المصيرية.
- التحيّز والتمييز: أنظمة التوظيف التي اعتمدت تحليلات مرئية أو صوتية (كمحاولات سابقة لشركات مثل HireVue) أثارت شكاوى بشأن التمييز ضد مجموعات معيّنة، مما دفع بعض الشركات للتراجع عن ميزات معروفة أو تعديل استخداماتها.
- الخصوصية والاستنتاجات الحسّاسة: حتى لو كانت التنبؤات «صحيحة» جزئيًا، فإن استنتاج سمات حسّاسة (مثل التوجّه السياسي أو الجنسي أو حالات صحية) من بيانات عامة ينتج عنها مخاطر خصوصية عالية، ويمكِن أن يُستخدم لإيذاء الأفراد أو استبعادهم من فرص.
- الإطار القانوني يتغير: تشدِّد تشريعات مثل قانون الاتحاد الأوروبي لتنظيم الذكاء الاصطناعي (AI Act) على قيود وشفافية خاصة بالأنظمة التي قد تُسفر عن مخاطر كبيرة للمواطنين — ومنها قواعد تمنع بعض استخدامات التقييم الاجتماعي والتحيّز. هذه القواعد بدأت تدخل حيّز التطبيق التدريجي منذ 2024–2025.
كيف تقرأ نتائج أدوات الـAI بذكاء، ونصائح عملية للحماية الذاتية
إذا استخدمت أداة ذكاء اصطناعي لتحليل شخصيتك أو لتخطيط حياتك، اعتبر النتائج نقطة انطلاق للاكتشاف لا حكمًا قاطعًا. إليك قائمة تحقق سريعة عند التعامل مع هذه الأدوات:
- تحقّق من مصدر البيانات: اسأل ما هي المصادر (عامة، مدفوعة، مرتبطة بملفات التواصل الاجتماعي؟) وهل أُخِذت موافقتك؟
- اطلب الشفافية: هل تُوضّح الشركة كيف تُستخرج الصفات؟ هل تعرض مستوى ثقة أو هامش خطأ؟
- لا تعتمد على نتيجة واحدة لاتخاذ قرار مهم: لا تستخدم تقارير شخصية آلية كمعيار وحيد للتوظيف أو لتغيير اتّخاذ قرارات حياتية مصيرية.
- احمِ بياناتك: قلّل مشاركة محتوى علني حساس، راجع إعدادات الخصوصية على الشبكات الاجتماعية، واحذف أو قيّد التطبيقات التي تسحب بياناتك بلا داعٍ.
- اطلع على حقوقك القانونية: في بعض الولايات القضائية قد تضمن القوانين حق الوصول، التصحيح، أو الاعتراض على معالجة بياناتك الشخصية أو قرارات آلية تؤثر عليك. تابِع التطورات التشريعية المحلية — فالإطار التنظيمي يتطور سريعًا (مثلاً في الاتحاد الأوروبي بدأ تطبيق بنود أساسية من AI Act في 2024–2025).
إذا كنت تستخدم هذه الأدوات للـ"تخطيط الشخصي" أو «التوجيه المهني»، فاجعلها جزءًا من ورشة ذاتية أكبر: استشر مرشدين بشريين، اجمع بيانات من اختبارات نفسية معيارية موثوقة، واستخدم النتائج كدعائم لتنمية سلوكية قابلة للقياس بدلاً من إجابات جاهزة عن "من أنت".
خلاصة: الذكاء الاصطناعي يملك قدرة متزايدة على استخلاص أنماط من بياناتنا الرقمية، لكن استنتاجات الشخصية والهُوية ليست قطعًا نهائية — ولا تزال محفوفة بمخاطر منهجية وأخلاقية وقانونية يجب التعرّف عليها وإدارتها.