כבר היינו עדים לסרטונים מזויפים עמוקים בהשתתפות אנשים מפורסמים כמו ברק אובמה, מארק צוקרברג, טום קרוז ועוד מספר סלבריטאים או פוליטיקאים. חלקם מצאו אותם משעשעים, בעוד שאחרים היו מודאגים מההשלכות כאשר טכנולוגיית Deepfake ממשיכה להתקדם.
ובכן, כעת נראה כי סרטונים מזויפים עמוקים מועסקים כחלק מתכניות הונאה מקוונות. תקרית לאחרונה מעורבת אדם מהודו שנפל קורבן להונאה שכזו, והביאה להפסד של 40,000 רופי (כ-490 דולר).
לְפִיMySmartPrice, הקורבן קיבל שיחת וידאו בוואטסאפ. הרמאי ניצל טכנולוגיית Deep Fake כדי להידמות לאחד מעמיתיו לשעבר של הקורבן וביקש כסף. כשרדהקרישנן, הקורבן, ענה לשיחה, הוא ראה מישהו שנראה כעמיתו לשעבר.
המתחזה אף הזכיר את שמותיהם של עוד כמה עמיתים לשעבר כדי לחזק את סיפורו. במהלך השיחה, הרמאי ביקש מרדהקרישנן לספק 40,000 רופי עבור סיוע דחוף לקרוב משפחה בבית החולים.
הקורבן הרגיש שהוא נאלץ לעזור לחברו, ביצע תשלום מקוון בסכום המבוקש. אבל מאוחר יותר, אותו מתקשר ביקש 35,000 רופי נוספים מרדהקרישנן. זה עורר את חשדו, מה שגרם לו ליצור קשר עם עמיתיו לשעבר כדי לאמת את הסיפור. זה היה אז שהוא גילה שהשיחה הייתה הונאה, והוא הוליך שולל מתוך 40,000 רופי. המשטרה הצליחה לאתר את הכסף, והבנק הקשור קיבל הוראה לחסום את הסכום.
הונאות וידאו מזויפות עמוקות עשויות להתרחש לעתים קרובות יותר ממה שאתה חושב
נראה שהונאות וידאו מזויפות אלה מתרחשות לעתים קרובות, במיוחד בהודו. עם זאת, מחקר אחרון של חברת אבטחת סייברמקאפימגלה כי 1 מכל 10 אנשים חווה באופן אישי הונאות ממוקדות בינה מלאכותית או הונאות מזויפות עמוקות, בעוד ש-15% מדווחים שהם מכירים מישהו שנפגע. זה מדגיש שאף אחד לא פטור מהסיכון להפוך לקורבן.
לפני זמן לא רב, בבאוטו, סין, רמאי השתמש בטכנולוגיית החלפת פנים מונעת בינה מלאכותית במהלך שיחת וידאו כדי להתחזות לחבר קרוב של הקורבן, ושכנע אותם להעביר סכום של 4.3 מיליון יואן (מעל 600,000 דולר).
ייתכן שהונאות שיחות וידאו מזויפות עמוקות אינן האיום היחיד שנוצר על ידי AI. נראה שפרסומות תרמית עמוקות מתעוררות גם באינטרנט בבריטניה. מומחה למימון צרכנותמרטין לואיסגינה פרסומת הונאה "מחפירה" בזיוף עמוק עבור אפליקציית השקעות. הפרסומת משתמשת בטכנולוגיית Deep Fake כדי לשכפל את פניו וקולו של המומחה, ולשכנע אנשים להשקיע באפליקציה המרמה, שעלול לגרום להפסדים כספיים.
מהו בעצם סרטון Deepfake?
סרטון מזויף עמוק הוא סרטון שנוצר בינה מלאכותית שמתאר בצורה משכנעת מישהו אחר, מה שהופך את ההבחנה בין סרטונים אמיתיים למזויפים למאתגרת. טכנולוגיית AI משמשת כדי לנתח ולעבד נתונים, כגון תמונות פנים והקלטות קול, מה שמקל על יצירת סרטוני וידיאו מזויפים ריאליסטיים המחקים מקרוב את המראה והקול של אדם.
איך אתה יכול להגן על עצמך מפני שיחות וידאו מזויפות עמוקות?
כשבינה מלאכותית מתקדמת במהירות והחקיקה מתקשה לעמוד בקצב, חיוני להיות מודע כיצד לזהות סרטונים מזויפים עמוקים. הנה כמה נקודות עיקריות שכדאי לקחת בחשבון:
- איכות וידאו: בדרך כלל, לסרטונים מזויפים עמוקים יש איכות ירודה. אם הסרטון החשוד הוא ממקור מקוון, בדוק אם יש סימני מים או אינדיקציות אחרות לכך שהוא עלול להיגנב.
- לולאות וחתכים: סרטונים מזויפים רבים חוזרים להתחלה לאחר פרק זמן מסוים או נעצרים בפתאומיות בסוף מבלי לסיים כראוי את שיחת הווידאו.
- גודל וידאו: כאשר מישהו מבצע שיחת וידאו מזויפת, לעתים קרובות הוא משנה את גודל הסרטון כך שיתאים לחלון מצלמת האינטרנט או לאפליקציה שבה הוא משתמש. שינוי גודל זה מעוות את הפרופורציות של הסרטון, אז בדוק אם יש פרצופים מורחבים או מוארכים מדי.
- אנשי קשר: האם האדם שמתקשר אליך רשום באנשי הקשר שלך? אם לא, חשבו היטב אם השם אומר לכם משהו או אם אתם מכירים אדם כזה.
- תוכן: אם נראה ששיחת הווידאו הגיעה ממישהו שאתה מכיר, ופרטי ההתקשרות שלו מדויקים, אבל משהו עדיין מרגיש לא בסדר, שקול את תוכן הסרטון. האם האדם שכביכול מתקשר אליך באמת מדבר ככה או שואל את האדם משהו שרק שניכם אולי יודעים, כמו זיכרון משותף, למשל?
על ידי תשומת לב לדברים האלה, אתה יכול לשפר את היכולת שלך לזהות סרטונים מזויפים עמוקים ולהגן על עצמך מפני נפילות קורבן להונאות כאלה.