احذروا الأساليب الجديدة.. خبير روسي يحذّر من تقنيات التزييف العميق
حذّر خبير أمن المعلومات الروسي بافل ميزينوف من أساليب جديدة تعتمد تقنيات "التزييف العميق" للاحتيال على الناس.
صورة للتوضيح فقط - تصوير:shutterstock_Thapana_Studio
وحول الموضوع قال الخبير:"في الفترة الأخيرة بدأ المحتالون باستخدام فيديوهات التزييف العميق على نطاق واسع للاحتيال على الناس. يقوم المهاجمون في أغلب الأحيان باختراق حساب شخص ما على مواقع التواصل الاجتماعي، ويحصلون من صفحته على صور ومقاطع فيديو وتسجيلات صوتية له، وباستخدام هذه البيانات ينشؤون مقاطع فيديو مزيفة لاستغلالها في ابتزاز الأشخاص المقربين منه للحصول على المال".
وأضاف:"بعد صنع المقطع المزور يقوم المحتالون بإرساله إلى أصدقاء الشخص وعائلته، ويزعمون أن الشخص تعرض لحادث أو مشكلة ما، ويطلبون منهم تحويل المال لحساب معين لمساعدته".
وأشار الخبير إلى ضرورة توخي الحذر والحيطة عند تلقي رسالة أو مكالمة هاتفية من شخص ما يطلب فيها مساعدة مالية، وطرح أسئلة شخصية على المتصل للتأكد من هويته، وفي حال تلقينا رسائل لتحويل مبلغ ما لمساعدة شخص نعرفه يجب التواصل مع هذا الشخص والتأكد من حاجته للمال.
وكان الخبير التقني الروسي، دميتري كريوكوف قد حذّر أيضا من الانتشار الواسع للفيديوهات المزيفة على الإنترنت، والتي تم إنشاؤها عبر تقنيات التزييف العميق، وأشار إلى أن وسائل الكشف عن التزييف العميق ما تزال في بداياتها حاليا، وغير فعالة بما فيه الكفاية، لذا من الضروري تدريب الكوادر المختصة وتطوير قدرات خبراء أمن المعلومات.
من هنا وهناك
-
ميزة جديدة من جوجل تتيح إجراء المكالمات الهاتفية بالذكاء الاصطناعي
-
أدوبي تطلق مجموعة برامج ذكاء اصطناعي للشركات وسط احتدام المنافسة
-
أكسيوس: وكالة الأمن القومي الأمريكية تستخدم أداة لأنثروبيك رغم حظرها
-
اكتشاف خلل جيني في مجموعات منعزلة من الأفيال الأفريقية
-
أوبن إيه.آي تطلق النموذج (جي.بي.تي روزاليند) لأبحاث علوم الحياة
-
تقرير: جوجل والبنتاجون يناقشان صفقة سرية للذكاء الاصطناعي
-
معني بالأمن الإلكتروني.. أوبن إيه.آي تطلق النموذج جي.بي.تي-5.4-سايبر
-
صحيفة: جهات بريطانية تسارع لتقييم مخاطر كشف عنها أحدث نماذج أنثروبيك
-
ستارمر يحث على وقف آليات تمرير مقاطع الفيديو بمنصات التواصل الاجتماعي
-
شركة أبحاث: أبل تتصدر سوق الهواتف رغم تراجع الشحنات عالميا





أرسل خبرا