
קרדיט: fizkes - Shutterstock
כאשר טכנולוגיה חדשה ועוצמתית כמו בינה מלאכותית תופסת לחברה ללא רגולציה, יהיו אנשים שישתמשו בכלי לטובתם: ובאופן לא מפתיע, בינה מלאכותית הופכת את עבודת הרמאים להרבה יותר קלה ואמינה. כתבנו על ההונאת "חטיפה וירטואלית".עושה את הסיבוב - עם התוכנית הזו, הרמאים משתמשים בהקלטות קול גנריות של ילדים במצוקה ומתקשרים למשפחות, בתקווה שהמטרות יחשבו שזה הילד שלהם מהצד השני. אבל עכשיו, הרמאים למעשה משתמשים בזה של ילדכםמַמָשִׁיקול, בעזרת מחוללי קול בינה מלאכותית.
מהו מחולל קול בינה מלאכותית?
כךVoicemod, חברת תוכנת אפקט קול ספרדית, מגדירה את טכנולוגיית מחולל קול בינה מלאכותית:
קול AI הוא קול סינתטי המחקה דיבור אנושי באמצעות בינה מלאכותית ולמידה עמוקה. ניתן להשתמש בקולות אלו על ידי המרת טקסט לדיבור, כמו עם Voicemod Text לשיר, או דיבור לדיבור, וכך עובד אוסף הקולות בינה מלאכותית שלנו.
הטכנולוגיה משמשת כעת כדי לשפר את מהועדת הסחר הפדרלית מסווגת כ"הונאות מתחזים",שבו הרמאים מעמידים פנים שהם בני משפחה או ידידים כדי לרמות קורבנות, בדרך כלל קשישים, מכספם. בשנת 2022, היו יותר מ-5,100 דיווחים על הונאות מתחזים בטלפון, בהפסדים בסך 11 מיליון דולר,לפי הוושינגטון פוסט.
ישנם שירותים זמינים עבור אנשים ליצור קולות באמצעות AI, כגון Voicemod, עם מעט מאוד פיקוח. מודל הבינה המלאכותית של טקסט לדיבור VALL-E של מיקרוסופט טוען שהוא מסוגל לדמות קול של כל אחד עם שלוש שניות בלבד של שמע,כפי שדווח על ידי Ars Technica.
"לאחר מכן הוא יכול ליצור מחדש את גובה הצליל, העצים והצלילים האישיים של קולו של אדם כדי ליצור אפקט כולל שדומה", האני פריד, פרופסור לזיהוי פלילי דיגיטלי באוניברסיטת קליפורניה בברקלי,אמר לוושינגטון פוסט. "זה דורש דגימה קצרה של אודיו, שנלקחה ממקומות כמו יוטיוב, פודקאסטים, פרסומות, TikTok, אינסטגרם או סרטוני פייסבוק."
כיצד פועלת הונאת מחולל קול בינה מלאכותית?
רמאים משתמשים בטכנולוגיית מחולל הקול של AI כדי לחקות קול של מישהו, לעתים קרובות ילד צעיר, כדי לרמות קרוב משפחה לחשוב שהילד מוחזק כופר. הרמאי דורש סכום כסף תמורת שחרור הילד בשלום.
כפי שניתן לראות מכאןדיווח חדשות NBC, קל לתפוס דגימות של קולו של אדם מהמדיה החברתית ולהשתמש בו כדי ליצור כל מה שאתה רוצה לומר. זה כל כך מציאותי שהכתבת הצליחה לרמות עמיתים לעבודה לחשוב שמחולל הבינה המלאכותית הוא בעצם היא, כשאחד מהם הסכים להשאיל לה את כרטיס החברה שלהם כדי לבצע כמה רכישות.
ההונאה מציאותית להפליא, ואנשים נתפסים לא מוכנים. יש גם וריאציות שונות המשתמשות באותה טכנולוגיה. זוג מקנדה הפסיד 21,000 דולר (15,449 דולר בדולר ארה"ב) בעקבות שיחת טלפון מזויפת מ"עורך דין": הרמאי התיימר לייצג את ילדם לאחר שלכאורה הרג בנו של דיפלומט בתאונת דרכים, ונזקק לכסף עבור "הוצאות משפט". "בזמן שבנם "היה בכלא", על פי אותו דיווח של וושינגטון פוסט.
מה אתה יכול לעשות כדי להימנע מליפול להונאה של מחולל קול בינה מלאכותית?
קו ההגנה הטוב ביותר הוא מודעות. אם אתה יודע על ההונאה ומבינה איך היא עובדת, סביר יותר שתזהה אותה אם זה יקרה לך או לאחד מיקיריך.
אם אתה מקבל שיחת טלפון כזו, עליך מיד להתקשר או לצ'אט בווידאו לילד או ל"קורבן" שנחטף כביכול. עד כמה שזה נראה מנוגד לאינטואיציה לעשות זאת במקום לפנות לרשויות או להגיע לכרטיס האשראי שלך כדי למסור את כספי הכופר, התקשרות אליהם בעצמך תנפץ את אשליה של הרמאי. אם זו, למעשה, הונאה, תשמע או תראה את ה"קורבן" בקו השני עובר על יומם הקבוע.
מלבד הפתרונות האלה, למרבה הצער, אין הרבה יותר שאתה יכול לעשות כדי למנוע להיות מטרה. יש טכנולוגיה שיכולהלזהות פעילות בינה מלאכותיתבסרטונים, תמונות, אודיו וטקסט, אבל זה לא ישים וזמין לציבור לעזור במצבים כאלה. התקווה היא שאותה טכנולוגיה שיצרה את הבעיה הזו תיצור בסופו של דבר פתרון לנהל את עצמו.
דניאל אורופזה
כותב צוות
דניאל הוא כותב צוות של Lifehacker. הוא שירת בצי האמריקני, שם הגיע לדרגת קצין זעיר בדרגה 3 כמומחה לוגיסטי וזכה במדליית שירות קהילתי של הצי ובאות הוקרה של הצי על שירותו המופתי על סיפון נושאת המטוסים USS תיאודור רוזוולט. הוא סיים את התואר הראשון שלו במדעי הסביבה מאוניברסיטת קליפורניה, דייויס, וקיבל את התואר השני שלו מבית הספר ללימודי עיתונות של אוניברסיטת קולומביה. דניאל היה כתב עסקי ב-Miami Herald לפני שהצטרף ל-Lifehacker. הוא גר באטלנטה, ג'ורג'יה.
קרא את הביוגרפיה המלאה של דניאל