Lorem ipsum dolor sit amet, consectetur adipiscing elit. Test link

يقول مكتب التحقيقات الفدرالي إن الناس يستخدمون تقنية التزييف العميق للتقدم لوظائف التكنولوجيا عن بعد

لقد رأينا أمثلة على استخدام تقنية التزييف العميق تقريبا لتغيير مجرى التاريخ عندما ظهرت لقطات Zelensky مرة أخرى في مارس وأخبر الجيش الأوكراني

يقول مكتب التحقيقات الفدرالي إن الناس يستخدمون تقنية التزييف العميق للتقدم لوظائف التكنولوجيا عن بعد

شخص يستخدم deepfake.
شخص يستخدم deepfake.

ما الذي يمكن أن تفعله أيضا تقنية التزييف العميق؟

لقد رأينا أمثلة على استخدام تقنية التزييف العميق تقريبا لتغيير مجرى التاريخ عندما ظهرت لقطات Zelensky مرة أخرى في مارس وأخبر الجيش الأوكراني بإلقاء السلاح وسط الغزو الروسي. لحسن الحظ ، كانت قذرة ، ولم يشترها الجيش.

والآن ، إذا فكرت في ما يحدث عندما يندمج عالم ما بعد كوفيد الذي ولد العديد من فرص العمل عن بعد للبدو الرحل الرقميين مع الذكاء الاصطناعي ، فإن  مركز شكاوى جرائم الإنترنت التابع لمكتب التحقيقات الفيدرالي (IC3) لديه الإجابة لك. 

اتضح أن الناس يستخدمون الآن تقنية التزييف العميق للتصرف مثل شخص آخر أثناء مقابلات العمل للوظائف البعيدة. وهذا ليس أسوأ جزء.

كشف مكتب التحقيقات الفيدرالي في إعلان عام في 28 يونيوأنها اكتشفت زيادة في الشكاوى التي أبلغت عن استخدام تقنية التزييف العميق ومعلومات التعريف الشخصية المسروقة (PII). تتضمن تقنية Deepfakes مقطع فيديو أو صورة أو تسجيلات تم التلاعب بها لتحريف أحدها على أنه فعل شيء لم يتم فعله بالفعل. تشمل الوظائف التي تم الإبلاغ عنها أيضا تكنولوجيا المعلومات وبرمجة الكمبيوتر وقواعد البيانات والوظائف المتعلقة بالبرمجيات. وتحتوي بعض إعلانات الوظائف هذه على إمكانية الوصول إلى معلومات تحديد الهوية الشخصية للعميل ، والبيانات المالية ، وقواعد بيانات تكنولوجيا المعلومات الخاصة بالشركات ، ومعلومات الملكية ، مما قد يؤدي إلى سيناريوهات غير مرغوب فيها للأفراد أو الشركات المعنية. 

ربما لم يدرك الأشخاص الذين اختاروا استخدام تقنية التزييف العميق أثناء المقابلات أن الإجراءات وحركات الشفاه على الكاميرا لا تتطابق تماما مع الصوت. أفاد مكتب التحقيقات الفيدرالي (FBI) أيضا أن السعال والعطس وما شابه ذلك من الإجراءات غير متزامن مع اللقطات المعروضة خلال المقابلات. 

هل التزييف العميق هو العدو؟

مرة أخرى في عام 2020 ، صنفت دراسة نشرت في  Crime Science محتوى الصوت والفيديو المزيف ، أو بعبارة أخرى ، التزييف العميق ، وهو أخطر تهديد لجرائم الذكاء الاصطناعي. أشارت الدراسة إلى أن البشر لديهم ميل قوي لتصديق عيونهم وآذانهم ، كما هو متوقع ، مما يعطي المرئيات ومصداقية صوتية كبيرة. على المدى الطويل ، قد يكون من السهل حقا تشويه سمعة شخصية عامة ، واستخراج الأموال عن طريق انتحال شخصية أشخاص مختلفين ، وقد يؤدي ذلك إلى عدم الثقة في هذا المحتوى ويؤدي إلى ضرر مجتمعي.

"على عكس العديد من الجرائم التقليدية ، يمكن مشاركة الجرائم في العالم الرقمي بسهولة وتكرارها وحتى بيعها ، مما يسمح بتسويق التقنيات الإجرامية وتقديم الجريمة كخدمة. وهذا يعني أن المجرمين قد يكونون قادرين على الاستعانة بمصادر خارجية للجوانب الأكثر صعوبة في الجرائم القائمة على الذكاء الاصطناعي

التكنولوجيا اللعينة ، أحيانا تكون مخيفة.

إرسال تعليق