Lorem ipsum dolor sit amet, consectetur adipiscing elit. Test link

يمكن للذكاء الاصطناعي توقع عرق الناس من خلال صور الأشعة السينية ، والعلماء قلقون

كشفت دراسة جديدة أن نماذج التعلم العميق القائمة على الذكاء الاصطناعي يمكنها تحديد عرق شخص ما فقط من خلال الأشعة السينية - وهو أمر سيكون مستحيلاً

يمكن للذكاء الاصطناعي توقع عرق الناس من خلال صور الأشعة السينية ، والعلماء قلقون

الأشعة السينية الصدر

كشفت دراسة جديدة أن نماذج التعلم العميق القائمة على الذكاء الاصطناعي يمكنها تحديد عرق شخص ما فقط من خلال الأشعة السينية - وهو أمر سيكون مستحيلاً بالنسبة لطبيب بشري ينظر إلى نفس الصور.

تثير النتائج بعض الأسئلة المقلقة حول دور الذكاء الاصطناعي في التشخيص الطبي والتقييم والعلاج: هل يمكن تطبيق التحيز العنصري عن غير قصد بواسطة برامج الكمبيوتر عند دراسة صور كهذه؟

بعد تدريب الذكاء الاصطناعي الخاص بهم باستخدام مئات الآلاف من صور الأشعة السينية الحالية الموصوفة بتفاصيل عن عرق المريض ، قام فريق دولي من الباحثين الصحيين من الولايات المتحدة وكندا وتايوان باختبار نظامهم على صور الأشعة السينية التي لم يقم بها برنامج الكمبيوتر. ر شوهد من قبل (وليس لديه معلومات إضافية عنه).

يمكن للذكاء الاصطناعي أن يتنبأ بالهوية العرقية المبلغ عنها للمريض في هذه الصور بدقة مدهشة ، حتى عندما تم التقاط الفحوصات من أشخاص من نفس العمر ومن نفس الجنس. ضرب النظام مستويات 90 في المئة مع بعض مجموعات الصور.

كتب الباحثون في ورقتهم المنشورة : "كنا نهدف إلى إجراء تقييم شامل لقدرة الذكاء الاصطناعي على التعرف على الهوية العرقية للمريض من خلال الصور الطبية" .

"نظهر أنه يمكن تدريب نماذج التعلم العميق للذكاء الاصطناعي القياسية للتنبؤ بالعرق من الصور الطبية ذات الأداء العالي عبر طرائق تصوير متعددة ، والتي تم الحفاظ عليها في ظل ظروف التحقق الخارجية."

يردد البحث نتائج دراسة سابقة وجدت أن عمليات المسح بالذكاء الاصطناعي لصور الأشعة السينية كانت أكثر عرضة لفقدان علامات المرض لدى السود. لمنع حدوث ذلك ، يحتاج العلماء إلى فهم سبب حدوثه في المقام الأول.

بحكم طبيعته ، يحاكي الذكاء الاصطناعي التفكير البشري لاكتشاف الأنماط في البيانات بسرعة. ومع ذلك ، فإن هذا يعني أيضًا أنه يمكن أن يستسلم عن غير قصد لنفس أنواع التحيزات. والأسوأ من ذلك ، أن تعقيدها يجعل من الصعب فك التشابك في التحيزات التي نسجناها فيها.

في الوقت الحالي ، لا يعرف العلماء سبب كون نظام الذكاء الاصطناعي جيدًا جدًا في تحديد العرق من الصور التي لا تحتوي على مثل هذه المعلومات ، على الأقل ليس على السطح. حتى عندما يتم توفير معلومات محدودة ، عن طريق إزالة أدلة على كثافة العظام على سبيل المثال أو التركيز على جزء صغير من الجسم ، فإن النماذج لا تزال تعمل بشكل جيد بشكل مدهش في تخمين العرق المذكور في الملف.

من المحتمل أن يكون النظام قد اكتشف علامات الميلانين ، الصبغة التي تعطي الجلد لونه ، والتي لم يعرفها العلم حتى الآن.

كتب الباحثون : "اكتشافنا أن الذكاء الاصطناعي يمكن أن يتنبأ بدقة بالعرق المبلغ عنه ذاتيًا ، حتى من الصور الطبية التالفة والمقتصدة والضوضاء ، غالبًا عندما لا يستطيع الخبراء الإكلينيكيون ذلك ، يخلق خطرًا هائلاً لجميع عمليات نشر النماذج في التصوير الطبي" .

يضيف البحث إلى كومة متزايدة من الأدلة على أن أنظمة الذكاء الاصطناعي يمكن أن تعكس غالبًا التحيزات والأحكام المسبقة للبشر ، سواء كانت عنصرية أو تمييزًا على أساس الجنس أو أي شيء آخر. يمكن أن تؤدي بيانات التدريب المنحرفة إلى نتائج منحرفة ، مما يجعلها أقل فائدة بكثير.

يجب موازنة ذلك مع الإمكانات القوية للذكاء الاصطناعي للحصول على المزيد من البيانات بسرعة أكبر بكثير مما يستطيع البشر ، في كل مكان من تقنيات اكتشاف الأمراض إلى نماذج تغير المناخ .

لا يزال هناك الكثير من الأسئلة التي لم تتم الإجابة عليها من الدراسة ، ولكن في الوقت الحالي من المهم أن تكون على دراية باحتمالية ظهور التحيز العنصري في أنظمة الذكاء الاصطناعي - خاصةً إذا كنا سنقوم بتسليم المزيد من المسؤولية إليهم في المستقبل.

قال عالم الأبحاث والطبيب ليو أنتوني سيلي من معهد ماساتشوستس للتكنولوجيا لصحيفة بوسطن جلوب : "نحتاج إلى وقفة" .

"لا يمكننا التسرع في جلب الخوارزميات إلى المستشفيات والعيادات حتى نتأكد من أنهم لا يتخذون قرارات عنصرية أو قرارات متحيزة ضد المرأة."

إرسال تعليق