
קרדיט: Alisa Stern, Shutterstock / Inside Creative House - In-House Art
פוסט זה הוא חלק מסדרת "לחיות עם בינה מלאכותית" של Lifehacker: אנו חוקרים את המצב הנוכחי של בינה מלאכותית, עוברים על איך זה יכול להיות שימושי (ואיך זה לא יכול), ומעריכים לאן הולך הטכנולוגיה המהפכנית הזו.קרא עוד כאן.
יש הרבה הייפ סביב AI, ופחד לא פחות. אבל חרדה מפני תרחישי עוגה בשמיים הכוללים רובוטים חיים ומחשבי-על מערפלת את האיומים האמיתיים שכבר קיימים, כמו הונאות בסיוע בינה מלאכותית.
בינה מלאכותית מציגה הונאות חדשות ומשפרת את הישנות
רמאים, האקרים ושחקנים זדוניים אחרים משתמשים בבינה מלאכותית בדרכים רבות, אבל המטרה הסופית היא בדרך כלל זהה לתוכניות מקוונות אחרות - לגרום לך ללחוץ על קישורים מזויפים או להוריד תוכנות זדוניות שיכולות לגנוב את הנתונים האישיים שלך, להשתלט על החשבונות שלך מכשירים, או מרגלים אחריך. בעוד שהמטרות זהות להונאות הדיוג ותוכנות זדוניות שראינו במשך עשרות שנים, כלי בינה מלאכותית יכולים להקל על העבודה על ידי יצירת סיבות מפתות יותר - או מאיימות - ללחוץ על הקישורים הזדוניים האלה.
איום הולך וגוברהוא מאמן כלי בינה מלאכותית לשכפל את הדמיון של חברים או בני משפחה באמצעות הקלטות קול, ולאחר מכן שימוש בקטעי קול מזויפים כדי להטעות קורבן לחשוב שיקירם צריך אותם כדי לשלוח כסף או להעניק להם גישה לחשבונות חשובים. באופן דומה, האקרים יכולים לתכנת צ'אט בוט באמצעות מידע ציבורי ופוסטים ברשתות חברתיותלשלוחהודעות או מיילים מותאמים אישיתטוען שהוא מישהו שזה לא. במקרים קיצוניים, הרמאים משתמשים בטקטים האלה כדי להפחיד אנשים לחשוב שמישהו שהם מכירים נחטף והוחזק תמורת כופר.
טקטיקה נוספת היא שימוש בתוכן שנוצר על ידי בינה מלאכותית - כמו מאמרים פוליטיים מזויפים ופוסטים ברשתות חברתיות - כדי להרגיז מישהו ולגרום לו ללחוץ על קישור מסוכן, או לסחוט קורבנות בפורנוגרפיה מזויפת עמוקה. יש אפילורישומי משרות מזויפים שנכתבו ב-AI.
הטכנולוגיה כבר מתוחכמת מספיק כדי להערים על אנשים, במיוחד אלה שלא נראים קרוב מספיק, ותוכן שנוצר בינה מלאכותית רק יהפוך לאמין יותר ככל שהטכנולוגיה תתפתח. למרבה הצער, לא קיימים חוקים או תקנות עדכניים המונעים או מענישים את היצירה וההפצה של זיופים עמוקים, מידע מוטעה שנעשה בינה מלאכותית או הכלים המשמשים ליצירתם.
כיצד להגן על עצמך מפני הונאות בינה מלאכותית
זה אומר שהאוטלה מוטלת על הציבור הרחב לשמור על ביטחונו. למרות שזה יכול להיות קשה - זה לוקח רק כמה שניות של הקלטת קול כדי לאמן AI - עדיין יש דרכים לזהות ולמנוע את ההונאות האלה.
אם אי פעם תקבל שיחה, דוא"ל או הודעת טקסט ממישהו שטוען שהוא אדם שאתה מכיר בסכנה, עליך לפנות מיד לאדם באמצעות מספר הטלפון או כתובת הדוא"ל השמורה באנשי הקשר שלך כדי לאשר שהוא באמת היה זה נִקרָא. אל תעשה כלום עד שאתה יודע בוודאות.
באשר לתמונות או וידאו שנוצרו בינה מלאכותית, הדבר הטוב ביותר לעשות הוא לסרוק את התמונה לאיתור חוסר עקביות. תמונות AI עשויות להיות משכנעות במבט חטוף, אבל יחשפו שגיאות בבדיקה מדוקדקת, כמו אצבעות נוספות, חלקי גוף חסרים או פרופורציות שגויות, אם להזכיר כמה. לסרטוני AI יהיו בעיות דומות, ותנועה עשויה להיראות מעצבנת, תקועה או מעוותת.
אסטרטגיה נוספת היא לבצע חיפוש תמונה הפוך: שחרר את התמונה לגוגל כדי לראות אם התמונה הזו, או אחרים כמוה, קיימת וזוכה לצלמים חוקיים, אמנים או פרסומים. חלק ממחוללי אמנות בינה מלאכותית מפרסמים את כל התמונות שנוצרו עם הכלים שלהם באינטרנט, כך שתוכל לראות אם התמונה הגיעה ממקור כמו Midjourney.
אחרת, השיטות להימנעות מהונאות בסיוע בינה מלאכותית אינן שונות ממניעת התקפות דיוג ותוכנות זדוניות נפוצות:
אל תקבל שיחות ממספרי טלפון לא ידועים.
אל תלחץ על קישורים חשודים.
בדוק שוב הודעות מגיעות ממקור לגיטימי.
אל תיכנס לאתרים אקראיים עם חשבונות המדיה החברתית, גוגל או אפל שלך.
אל תמסור את הנתונים האישיים שלך או פרטי התחברות לאף אחד בטלפון או באינטרנט, גם אם הוא טוען שהוא נציג רשמי של חברה, בנק או אתר מדיה חברתית.
צור סיסמאות ייחודיות לכל חשבון שבו אתה משתמש.
זו אינה רשימה מקיפה, אך ביצוע אסטרטגיות אלה יכול לעזור לשמור על בטיחותך. הקפד לבדוקהמדריכים שלנו להימנעות מהונאות מקוונותואסטרטגיות פרטיות אחרות באינטרנט לקבלת טיפים נוספים.
בינה מלאכותית ופרסום כוזב
בעוד שרמאים שמשתמשים בבינה מלאכותית היא דאגה גדולה, יש גם קטגוריה שנייה ורחבה יותר של הונאות בינה מלאכותית, כזו שרמזתי עליה במבוא: הייפ של בינה מלאכותית.
כמו בכל טכנולוגיה חדשה ומלהיבה, חברות להוטות לקפוץ על רכבת ההייפ של AI. כבר ראינו עלייה במוצרים ובתכונות "מופעלי בינה מלאכותית", כמו כלי הבינה המלאכותית שנוספו לחיפוש Bing ו-Google. אבל הפריחה הזו בעניין מושכת גם גרפטים שישתמשו בבינה מלאכותית - או בחששות שלנו ממנה - כדי למכור לך שטויות. אותו דבר קרה עם מטבעות קריפטוגרפיים ו-NFT בשנים האחרונות, ועכשיו זה קורה עם AI. אל תתבאס.
אחת הדרכים הטובות ביותר להגן על עצמך היא ללמוד כיצד בינה מלאכותית עובדת, ומה היא מסוגלת - ומה לא. המונח "AI", כלומר בינה מלאכותית,זה לא בעצם מה שהם בעצם כלי הבינה המלאכותית האלה, בכל מקרה. זה מרמז שמדובר ביצורים חיים המסוגלים לחשוב ולהגיב. הם לא, וכל מי שמרמז שהמוצרים שלהם - או של כל אחד אחר - הם איכשהו "חיים" טועים או משקרים לך.
עם זאת, הרבה גריפטרים ישתמשו בטענות ארציות ומציאותיות יותר כדי למכור לך בכל תוכניות סמוכות לבינה מלאכותית שהם מריצים - כמו טענות שאתה יכול להרוויח המון כסף ככותב עצמאי, קודן או מעצב גרפי באמצעות כלי הבינה המלאכותית שלהם. לא רק העברת תוכן שנוצר על ידי AI כלא אתי שלך, אלא שזה גם לא חכם.
כלים כמו ChatGPT או Midjourney עובדים רק בגלל שבני אדם אמיתיים יצרו את הטקסט או האמנות שהם מתייחסים אליהם, ולעתים קרובות ללא הסכמה או פיצוי. אין שכל בכלי AI אלה, ולכן אין ניסיון, זיכרון או מיומנות המודיעים על הפלט שלו. במילים אחרות, הם עושים פלגיאט, ולעתים קרובות הם גרועים, כך שאין דרך להבטיח שמאמר שנוצר בינה מלאכותית הוא אמיתי אלא אם מישהו אחר עורך אותו.
זה לא אומר שהכלים האלה לא מרשימים או שהם חסרי תועלת לחלוטין. הנקודה היא שבינה מלאכותית יכולה לעשות הרבה דברים, אבל זה לא קסם, וזה לא מושלם. בפעם הבאה שתשמע טענה על מוצר AI חדש שנשמע טוב מכדי להיות אמיתי, רוב הסיכויים שכן. אל תיפול לזה.
ברנדן הסה
ברנדן הוא כותב עצמאי ויוצר תוכן מפורטלנד, OR. הוא מכסה טכנולוגיה וגיימינג עבור Lifehacker, וכתב גם עבור Digital Trends, EGM, Business Insider, IGN ועוד.