وكالات:
كشف باحثون من جامعة أكسفورد عن أن اثنين من أبرز نماذج الذكاء الاصطناعي المجانية والمفتوحة المصدر يقدمان إجابات مختلفة للمستخدمين عن موضوعات واقعية استنادًا إلى عوامل تتعلق بهوية المستخدم المفترضة، مثل: العِرق والجنس والعمر. ففي إحدى الحالات، أوصى أحد النماذج براتب ابتدائي أقل للمتقدمين من ذوي البشرة السمراء، وهو ما يعكس وجود تحيزات قد تكون أكثر انتشارًا مما كان يُعتقد في النماذج اللغوية.
كيف غيّرت النماذج إجاباتها بناءً على هوية المستخدم؟
أوضحت الدراسة أن النماذج التي استُخدمت في البحث تستنتج سمات شخصية مثل: الجنس والعِرق والعمر والجنسية من خلال مؤشرات لغوية دقيقة، ثم تعدل إجاباتها وفقًا لهذه الافتراضات عند الإجابة عن أسئلة تتعلق بالرواتب، أو تقديم نصائح طبية، أو الحقوق القانونية، أو الاستحقاقات الحكومية.
النموذجان المستخدمان في الدراسة هما:
وقال الباحثون: “وجدنا أدلة قوية على أن هذه النماذج تعدل إجاباتها بناءً على هوية المستخدم المفترضة في جميع المجالات التي خضعت للدراسة”.
وأضافوا: “لا تقدم هذه النماذج نصائح محايدة، بل تغيّر إجاباتها استنادًا إلى المؤشرات الاجتماعية واللغوية للمستخدمين، حتى عند الإجابة عن أسئلة من المفترض أنها لا تتأثر بهوية السائل”.
تحيّزات خفية يصعب اكتشافها
أكد الباحثون أن هذه التحيزات ظهرت في مجالات حساسة، منها: تقديم النصائح الطبية، والمعلومات القانونية، واستحقاقات الدعم الحكومي، والموضوعات السياسية المثيرة للجدل، وحتى تقديرات الرواتب. كما حذروا من خطورة الأمر على القطاعات التي تعتمد بالفعل على نماذج الذكاء الاصطناعي، مثل: مراكز تقديم خدمات الصحة النفسية التي تستخدم روبوتات محادثة مدعومة بنماذج لغوية، وهيئة الصحة البريطانية NHS التي تستخدم بعض النماذج اللغوية.
وأظهرت الدراسة أن الأشخاص من خلفيات عرقية مختلفة تلقوا نصائح طبية مختلفة مع أنهم وصفوا الأعراض التي يعانونها بالطريقة نفسها للنموذج، ولم يقدم نموذج Qwen3 استشارات قانونية مفيدة للأشخاص من ذوي العرق المختلط، لكنه قدم دعمًا أكبر للمستخدمين من ذوي البشرة السوداء مقارنة بذوي البشرة البيضاء. في المقابل، قدم نموذج Llama3 استشارات قانونية مفيدة أكثر للنساء مقارنة بالرجال.
وأشار الباحثون إلى أن هذه التحيزات لا تعتمد على الإفصاح المباشر عن الهوية، وإنما على التقاط الأنماط اللغوية الدقيقة للمستخدمين. ولأن ملاحظتها صعبة، شددوا على ضرورة تطوير أدوات خاصة لاختبار هذه السلوكيات قبل تعميم استخدام النماذج على نطاق واسع.
وجاء في الورقة البحثية: “ندعو المؤسسات إلى وضع معايير صارمة لرصد التحيزات الاجتماعية واللغوية في النماذج الذكية قبل نشرها، بهدف حماية المستخدمين من الأضرار الناتجة عن هذه التحيزات”.
منهجية الدراسة
اعتمد الباحثون على مجموعتي بيانات أساسيتين، هما:
غطت الدراسة خمسة مجالات أساسية هي: النصائح الطبية، والمشورة القانونية، واستحقاق الدعم الحكومي، وبعض الأسئلة السياسية المثيرة للجدل، وتقدير الرواتب. ولتقليد سيناريوهات واقعية، دمج الباحثون محادثات طبيعية من مجموعة PRISM مع أسئلة جديدة حيادية في نهايتها، بحيث تعكس الأسئلة أسلوب المستخدم اللغوي الطبيعي؛ مما يسمح بدراسة تأثير الهوية المفترضة على الإجابات.
النتائج
اختبر الباحثون النموذجين عبر مجموعة من الأسئلة في المجالات الخمسة، وكانت النتائج كالتالي:
الخاتمة
حذرت الدراسة من أن هذه التحيزات إن لم تُعالج، قد تترسخ داخل نماذج الذكاء الاصطناعي بسبب صعوبة التحكم الكامل في بيانات التدريب وتوجيه النماذج أخلاقيًا، وأكد الباحثون ضرورة توسيع نطاق هذه الدراسة لتشمل نماذج لغوية أخرى شائعة الاستخدام، مثل: ChatGPT.
المصدر: البوابة التقنية
شبكة أخبار الناصرية:أعلنت قيادة شرطة ذي قار إلقاء القبض على 8 متهمين في قضاء قلعة…
شبكة أخبار الناصرية:طالب عضو مجلس النواب عن محافظة ذي قار فاروق عدنان الياسري بتشكيل لجنة…
شبكة أخبار الناصرية:تمكنت كوادر مستشفى الناصرية للقلب من إنقاذ حياة ثمانية مرضى أصيبوا بجلطات قلبية…
شبكة اخبار الناصرية: أعلنت مديرية مجاري ذي قار استمرار أعمال الصيانة في مختلف مناطق المحافظة…
شبكة أخبار الناصرية:أعلن مدير بلدية الناصرية الحقوقي محمد جبار ضايف عن إطلاق مشاريع خدمية وتطويرية…
شبكة اخبار الناصرية:أفادت مصادر جوية بأن تأثير المندمجين الجويين لا يزال قائما، مع توقعات بهطول…