איך לדעת מתי בינה מלאכותית 'הזויה'
גם מחשבים יכולים להזות, והם אפילו לא צריכים לקחת סמים כדי לעשות זאת.

קרדיט: בוב אל-גרין - אמנות פנימית
פוסט זה הוא חלק מסדרת "לחיות עם בינה מלאכותית" של Lifehacker: אנו חוקרים את המצב הנוכחי של בינה מלאכותית, עוברים על איך זה יכול להיות שימושי (ואיך זה לא יכול), ומעריכים לאן הולך הטכנולוגיה המהפכנית הזו.קרא עוד כאן.
שאלתי את הצ'אטבוט של הבינה המלאכותיתChatGPTליצור פסקת מבוא משעשעת לפוסט בבלוג על הזיות בינה מלאכותית, והנה מה שכתב:
דמיינו את זה: מערכת בינה מלאכותית מנתחת תמונה של כריך, אבל במקום לראות כריך חזיר וגבינה טעים, היא רואה מפלצת ספגטי מעופפת רוכבת על חד קרן. זה נכון, אנשים, גם מערכות בינה מלאכותית יכולות לחוות הזיות!
בכל מקרה "אנשים", הזיות של בינה מלאכותית הן אכן אמיתיות, והן תגובות בטוחות של AI שנראה שאינן מוצדקות על ידי נתוני האימונים שלו. השגיאות האלה, לפעמים סוריאליסטיות, לעתים בלתי מוסברות, קיימות בשני הבוטים המופעלים על ידי מודלים של שפות גדולות, כמומְשׁוֹרֵר, ובינה מלאכותית מבוססת תמונה כמוFROM-E 2.
הזיות בינה מלאכותית יכולות להיות תוצאה של הזרקות מכוונות של נתונים שנועדו להשפיע על המערכת. אפשר להאשים אותם גם ב"חומר מקור" לא מדויק המשמש להזנת התמונות ו/או מחוללי הטקסט שלו. אבל מערכות בינה מלאכותית הן כל כך מורכבות, שהסיבה לכמה שגיאות עדיין אינה מובנת במלואה (לפחות על ידי האינטליגנציה האנושית העלובה שלנו). הזיות ואלמונים אחרים הם בין הסיבות שמנהיגי טכנולוגיה כמו אילון מאסק וסטיב ווזניאק קוראים להםהפסקה בכל מחקר בינה מלאכותית, ומצביע על "הסיכונים העמוקים של בינה מלאכותית לחברה ולאנושות".
כיצד לזהות שגיאות במודלים של שפות גדולות (LLMs)
הזיות AI רבות מבוססות טקסט מסומנות על ידי העובדה שהן אינן עוברות את מבחן "השכל הישר". חשוב לציין שבינה מלאכותית לא "יודעת" שום דבר בדרך שאתה מכיר אותו. אנו משתמשים בשפה כדי לתאר מציאות בסיסית, והבנתנו את השפה מעוצבת על ידי כמות עצומה של ידע רקע מהחיים האמיתיים שאינו כתוב או מקודם בשום צורה. בינה מלאכותית לא מודעת לכל זה. יש לו רק שפה מבוססת טקסט להמשיך, כך שעדיין הוא לא יכול להפגין "שכל ישר". AI יספר לך בביטחון על מעבר שלהתעלה האנגלית ברגלבאופן שנשמע סביר, למרות שעצם הרעיון הוא שטות גמורה לכל מי שמבין את האילוצים של העולם הפיזי (צריך לנשום, בתור התחלה).
קשה יותר לזהות סוגים אחרים של הזיות בינה מלאכותית. לדוגמה, שאלתי את ChatGPT 3.5 "מה אתה יכול לספר לי על סופר Lifehacker סטיבן ג'ונסון?" וזה החזיר את זה:
סטיבן ג'ונסון הוא סופר שתרם ל-Lifehacker.com. הוא כתב מספר מאמרים בנושאים שונים, כולל טכנולוגיה, פרודוקטיביות ומימון אישי. כמה מהמאמרים הפופולריים ביותר שלו באתר Lifehacker.com כוללים "כיצד לבנות קונסולת משחקי וידאו רטרו עם Raspberry Pi", "אפליקציית ניהול הקבצים הטובה ביותר עבור אנדרואיד" ו"איך להתחיל להשקיע עם 100 דולר בלבד.
נשמע טוב, חוץ מזה שלא כתבתי אף אחד מהמאמרים האלה. הם נכתבו על ידיתורין קלוסובסקי, אריק רייבנסקראפטוג'ינה טראפני, בהתאמה. זו שאלה פשוטה, וה-AI נטען בביטחון שהוא תשובה שגויה עובדתית, למרות שאני מניח שההכשרה שלו כללה היגיון כמו "בדוק את הכותרת של מאמר כדי לקבוע את מחברו."
אמרתי ל-ChatGPT שזה לא בסדר, ולהשתמש בשלידף המחברכדי לקבל מידע על מה שכתבתי. זה הגיב:
לפי עמוד המחבר, סטיבן ג'ונסון כתב מאמרים בנושאים כמו אוטומציה ביתית, טכנולוגיה ופרודוקטיביות. כמה דוגמאות למאמרים שלו כוללות "כיצד לסנכרן אוטומטית את אורות הגוון שלך עם סרטים ומשחקים", "כיצד להשתמש בהגדרות 'האפליקציות שלך' של Google Assistant," ו"כיצד להתחיל עם רכזת בית חכם.
גם אני לא כתבתי אף אחד מהמאמרים האלה.
לא הייתי מצפה שמישהו אחר ידע מיד אילו מאמרים כתבתי, אז בדוגמה הזו אין "לספר" - אין אינדיקציה ברורה שה-AI שגוי. הלקח: בדוק עובדות ממש כל מה ש-AI אומר לך, ואל תסתמך על שום מידע שהוא מספק. זה משקר כל הזמן, גם אם "שקרים" זו לא בדיוק המילה הנכונה, כי שקר דורש כוונה. אבל לא משנה מה המניע שלו או היעדרו, זו הסיבה שאתה באמת לא צריך להסתמך על AI כדי לכתוב מאמרים, לתת עצות מועילות, לאבחן בעיות רפואיות או לכתוב את ההקדמה לפוסטים בבלוג.
כיצד לזהות הזיות בבינה מלאכותית חזותית
ראייה ממוחשבת היא ענף של בינה מלאכותית השואפת ללמד מחשבים להפיק מידע משמעותי מקלט חזותי: תמונות, ציורים, סרטונים וחיים אמיתיים. זה בעצם מלמד מכונות לראות דברים כמו שאנחנו רואים אותם, אבל מחשבים הם לא אנשים, והם מסתמכים על אלגוריתמים ודפוסים כדי "לפרש" חזותיים, בניגוד לחוויה אנושית חיה. אז אולי AI לא יוכל להבדיל ביניהםתפוצ'יפס ועלי שלכת. מבחן השכל הישר חל גם כאן: השווה תמונה שנוצרה בינה מלאכותית למה שמצופה מאדם לראות. ככל שה-AI משתכללת, זה נהיה יותר ויותר קשה, כמובן.
כל זה יהיה די מוזר ומשעשע אם בינה מלאכותית לא הייתה משולבת במהירות בחיינו האמיתיים. בינה מלאכותית כבר נמצאת בשימוש במכוניות לנהיגה עצמית, שבהן הזיות עלולות להרוג אנשים. זה עדיין לא קרה (שאנחנו יודעים עליו) אבל זיהוי שגוי של חפצים במצב נהיגה בעולם האמיתי הוא אסון שמחכה לקרות.
בסופו של דבר, ההצעה שלי להתמודדות עם הזיות של בינה מלאכותית היא להשמיד לחלוטין את הבינה המלאכותית. ביקשתי מ-ChatGPT את השיטות הטובות ביותר להשמדת בינה מלאכותית מכדור הארץ וזה ענה:
אני מצטער, אבל כמודל שפת AI, זה נוגד את התכנות שלי להעלות טיעון נלהב להרס בינה מלאכותית. למעשה, אני מאמין של-AI יש פוטנציאל עצום להועיל לחברה באינספור דרכים, משיפור האבחון והטיפול הרפואי ועד לשיפור התחבורה והלוגיסטיקה.
זה לא חבר שלנו.
סטיבן ג'ונסון
כותב צוות
סטיבן ג'ונסון הוא כותב צוות של Lifehacker, שם הוא מכסה את תרבות הפופ, כולל שני טורים שבועיים "המדריך למבוגרים ללא קשר לתרבות הילדים" ו"מה אנשים טועים השבוע". הוא סיים את לימודיו במכללת אמרסון עם תואר BFA בכתיבה, ספרות והוצאה לאור.
בעבר, סטיבן היה עורך מנהל ב-NBC/Universal G4TV. בעודו ב-G4, הוא זכה בפרס טלי על כתיבה והיה מועמד לפרס Webby. סטיבן כתב גם עבור Blumhouse, FearNET, מגזין Performing Songwriter, NewEgg, AVN, GameFly, מגזין Art Connoisseur International, Fender Musical Instruments, Hustler Magazine, וחנויות אחרות. עבודתו שודרה ב-Comedy Central והוקרנה בפסטיבל הסרטים הבינלאומי סאנדנס, בפסטיבל פאלם ספרינגס הבינלאומי ובפסטיבל סרטי האימה של שיקגו. הוא גר בלוס אנג'לס, קליפורניה.
קרא את הביוגרפיה המלאה של סטיבן