Loading AI tools
טכנולוגיה לסינתזת דימוי אנושי מבוססת בינה מלאכותית מוויקיפדיה, האנציקלופדיה החופשית
Deepfake (בעברית: דיפ-פייק או דיפייק) היא טכנולוגיה מבוססת בינה מלאכותית ליצירת סרטוני וידאו, צילומים או קטעי קול מזויפים. דיפ-פייק מאפשר ליצור תוכן מזויף שנראה אמיתי על ידי שילוב תמונות וסרטונים קיימים על פני תמונות וקטעי וידאו מקוריים. בשל יכולות אלו, נעשה בטכנולוגיה שימוש להפקת סרטונים פורנוגרפיים של ידועניות, פורנוגרפיית נקם, פייק ניוז ומתיחות זדוניות (אנ')[1] כמו גם ספינים תקשורתיים להטיית דעת הקהל.
הביטוי הוא הלחם של המילים "Deep learning" (למידה עמוקה) ו-fake ("זיוף")[1] והשתמשו בו לראשונה בשנת 2017 באתר Reddit.
התפתחות טכנולוגיית הדיפ-פייק התרחשה במידה רבה בשני מישורים: מחקר במוסדות אקדמאיים ופיתוח על ידי חובבים בקהילות מקוונות.
שורשי המחקר האקדמי של טכנולוגיית הדיפ-פייק טמונים בעיקר בתחום הראייה הממוחשבת, תת-תחום של מדעי המחשב המבוסס לעיתים קרובות על בינה מלאכותית, שמתמקד בעיבוד ממוחשב של תמונות וסרטונים דיגיטליים. ציון דרך מוקדם היה תוכנית מחשב לשכתוב וידאו שפורסמה בשנת 1997; התוכנית שינתה קטעי וידאו קיימים של אדם מדבר והתאימה את הדיבור שלו לרצועת אודיו שונה[2]. זו הייתה המערכת הראשונה שביצעה שינויים בהבעות פנים באופן אוטומטי לחלוטין, והיא עשתה זאת באמצעות טכניקות למידת מכונה כדי ליצור קשרים בין הקול שמופק על ידי דמות בווידאו וצורת הפנים שלה.
פרויקטים אקדמאיים עדכניים התמקדו ביצירת סרטוני וידאו מציאותיים יותר והפיכת הטכניקות לפשוטות, מהירות ונגישות יותר. בשנת 2016 פורסמה תוכנית המחשב "Face2Face", שהתאימה קטעי וידאו של פני אדם כך שיחקו הבעות פנים של אדם אחר בזמן אמת[3]. התוכנית התמקדה בחיקוי הבעות פנים בזמן אמת באמצעות מצלמה שלא תופסת עומק שדה ובכך מאפשרת להשתמש בטכנולוגיה במצלמות צרכנים נפוצות. בשנת 2017 פורסמה תוכנית מחשב בשם "Synthesizing Obama", שלקחה קטעי וידאו של נשיא ארצות הברית לשעבר ברק אובמה והתאימה את הדיבור שלו לרצועת אודיו נפרדת[4]. התוכנית התמקדה ביצירת טכניקה פוטו-ריאליסטית לסינתזת צורות פה מאודיו.
מקור הביטוי דיפ-פייק לקוח ממשתמש רדיט אנונימי בשם "deepfakes"[5][1]. הוא, כמו אחרים בקהילת r/deepfakes ברדיט, שיתפו סרטוני דיפ-פייק שהם יצרו; סרטונים רבים הטמיעו פנים של ידועניות על גוף של שחקניות פורנו[5], בעוד שתוכן לא-פורנוגרפי כלל סרטונים רבים שבהם הטמיעו את הפנים של השחקן ניקולס קייג' בסרטים שונים[6].
תופעת הדיפ-פייק דווחה לראשונה בדצמבר 2017 במדור המדעי והטכני של מגזין Vice (אנ'), מה שהוביל לסיקור נרחב בכלי תקשורת נוספים. סמנתה קול פרסמה מאמר על קהילת r/deepfakes שיצרה ושיתפה דיפ-פייקים[7], ושישה שבועות לאחר מכן היא כתבה מאמר נוסף על הגידול בפורנוגרפיה מבוססת בינה מלאכותית[5]. בפברואר 2018, קהילת r/deepfakes נסגרה על ידי אתר רדיט בשל שיתוף חומרים פורנוגרפיים ללא הסכמת המשתתפים. אתרים נוספים אסרו הפצה ושיתוף חומרי דיפ-פייק, ביניהם טוויטר ו-Pornhub[8]. קהילות מקוונות שלא משתפות חומרי דיפ-פייק פורנוגרפיים נותרו, כולל קהילת רדיט r/SFWdeepfakes שחולקת חומרים בטוחים לסביבת העבודה (safe for work deepfakes)[9].
שימוש ידוע לשמצה בטכנולוגיית דיפ-פייק הוא הטמעת פנים של ידועניות על גוף של שחקניות פורנו ויצירת סרטונים פורנוגרפיים מזויפים. פורנוגרפיית דיפ-פייק הופיעה לראשונה באינטרנט בשנת 2017 כאשר משתמש אנונימי בשם "deepfakes" פרסם מספר סרטונים פורנוגרפיים מזויפים באתר רדיט; הראשון שמשך תשומת לב היה סרטון של השחקנית דייזי רידלי. ידועניות נוספות שפורסמו סרטונים מזויפים שלהן: גל גדות, אמה ווטסון, קייטי פרי, טיילור סוויפט, מייזי ויליאמס וסקרלט ג'והנסון[10]. סרטונים אלו הוסרו זמן קצר לאחר פרסומם.
לאחר שטוויטר ואתר הפורנו Pornhub אסרו הפצת חומרים פורנוגרפיים מבוססי בינה מלאכותית, אתר רדיט עדכן את המדיניות שלו ב-7 בפברואר 2018 ואסר פרסום פורנוגרפיה שנעשתה ללא הסכמת המשתתפים[11]. עם זאת, קהילות מקוונות אחרות ממשיכות לשתף פורנוגרפיית דיפ-פייק בפלטפורמות שבהן לא עדכנו את המדיניות[8].
סקרלט ג'והנסון, שהשתמשו בדמותה לא פעם בסרטי דיפ-פייק פורנוגרפיים, דיברה בפומבי על הנושא במאמר ב"וושינגטון פוסט" בדצמבר 2018. היא הביעה דאגה מהתופעה, אך הצהירה שלא תנסה להסיר את הסרטונים כיוון שמדובר במאבק אבוד בשל אופי תרבות האינטרנט והחוקים השונים בכל מדינה; היא מאמינה שבעוד ידועניות כמותה מוגנות מעצם פרסומן, תופעת הדיפ-פייק מהווה איום כנגד נשים שהמוניטין שלהן עלול להיפגע כתוצאה מפורנוגרפיית נקם[12][13].
בבריטניה ניתן להעמיד לדין מפיקי דיפ-פייק בגין הטרדה, אך יש דרישה לחוקק חוק ספציפי יותר[14]. בארצות הברית הוגשו אישומים מגוונים בדבר גנבת זהות, סייבר-סטוקינג (אנ') ופורנוגרפיית נקם, ונידונה האפשרות לחוקק חוק מקיף יותר[15].
ביוני 2019 יצא לאור יישום מחשב לווינדוס וללינוקס בשם "DeepNude", המשתמש בטכניקת רשת אדברסרית גנרטיבית (GAN) להסרת ביגוד מתמונות של נשים. לאפליקציה הייתה גרסה חינמית וגרסה בתשלום שעלתה 50 דולר[16]. ב-27 ביוני, לאחר חצי מיליון הורדות וקריסה של השרת[17], יוצרי האפליקציה הסירו את התוכנה ונתנו החזר כספי לרוכשים[18].
בסוף ינואר 2024 תמונות עירום מזויפות של הזמרת האמריקאית טיילור סוויפט, שיוצרו באמצעות בינה מלאכותית, הופצו ברשתות החברתיות וזכו לתפוצה רחבה. התמונות הפוגעניות עוררו תגובות זעם מצד ארגונים נגד פגיעה מינית, פוליטיקאים, מעריצים ומנכ"ל מיקרוסופט, סטיה נאדלה, שחברתו סיפקה את הכלים ליצירת התמונות. בעקבות המקרה הוצע חוק בארצות הברית שיאפשר לקורבנות תמונות מזויפות לתבוע את יוצריהן ומפיציהן, והאיחוד האירופי הגיע להסכמה על חקיקה דומה. יש הטוענים כי מעורבותה של דמות מפורסמת כמו סוויפט בסוגיה עשויה להעלות מודעות ולהוביל לרפורמה פוליטית בתחום פורנוגרפיית העמוקה (Deepfake).
הדוח "מצב הדיפייקס" מ-Home Security Heroes חושף תובנות משמעותיות לגבי שכיחותם והשפעתם של סרטוני דיפייק[19]. הממצאים העיקריים כוללים עלייה של 550% בסרטוני דיפייק באינטרנט מאז 2019, כאשר 98% מהם הם פורנוגרפיית דיפייק, המכוונת ברובה לנשים (99%). חלק ניכר כולל בידור דרום קוריאני, ומספר גדול של צופי פורנוגרפיית דיפייק אינם חשים אשמה בצריכת תוכן זה. התקדמות הטכנולוגיה מאפשרת כיום יצירת סרטוני דיפייק בפחות מ-25 דקות ללא עלות, באמצעות תמונה אחת ברורה בלבד. הדוח מדגיש את הנגישות הגוברת והשימוש בכלי יצירת דיפייק, ומבליט את הצורך בשיקולים אתיים ובהגנות רגולטוריות.
ב-6 באפריל 2024 פורסמה כתבה בהמקום הכי חם בגיהנום אשר עוסקת בהפצת תמונות עירום מזויפות, המיוצרות באמצעות טכנולוגיות בינה מלאכותית אשר הפכה לתופעה מדאיגה הפוגעת בעיקר בנערות וצעירות[20]. בכתבה מצוין כי ההפצה של תמונות אלו ברשתות החברתיות נחשבת כפגיעה מינית ועשויה לגרום לנזק נפשי משמעותי לקורבנות, בדומה לפגיעה מינית פיזית. התופעה מעלה שאלות לגבי הצורך בחיזוק החינוך המיני ומיומנויות הגלישה הבטוחה של בני נוער, כמו גם אתגרים משפטיים הנוגעים להתמודדות עם פגיעות מיניות מקוונות באמצעים טכנולוגיים חדשים. מומחים קוראים לשיתוף פעולה בין ההורים למערכת החינוך על מנת לפתח דרכים יעילות להגנה על בני נוער מפני פגיעות אלו ולהקניית כלים להתנהלות מושכלת ובטוחה במרחב הדיגיטלי.
תופעות דומות דווחו גם בכתבה בניו יורק טיימס מאפריל 2024 לגבי חטיבות ביניים ותיכונים בארצות הברית. על פי הדיווח, במהלך מרץ 2024, הזהיר ה-FBI כי הפצת חומרים מסוג זה, כולל תמונות מציאותיות לכאורה שנוצרו על ידי בינה מלאכותית וכוללות דימויים מיניים של קטינים הניתנים לזיהוי היא אינה חוקית. למרות זאת, התופעה של תלמידים המשתמשים באפליקציות בינה מלאכותית נצלניות בבתי הספר היא כל כך חדשה, שחלק מבתי הספר לא החלו עדיין להתמודד עם התופעה[21][22].
טכנולוגיית דיפ-פייק משמשת ליצירת ייצוג שקרי ולא הולם של פוליטיקאים. כך למשל הוחלפו פניו של נשיא ארגנטינה מאוריסיו מאקרי בפניו של אדולף היטלר, ופניה של אנגלה מרקל בפניו של דונלד טראמפ. קווין סיסטרום, מייסד אינסטגרם, הביע דאגה מתופעת הדיפ-פייק ואמר "זה נראה קרוב מאוד לאמיתי, בעולם שבו אפשר להפיץ לעולם מידע במהירות רבה ולגרום לו להדהד, מה קורה אם אתה חושב שדמות פוליטית כלשהי אמרה משהו שבעצם לא נאמר?"[23]
במרץ 2018 פיתחה חברת ASI Data Science (אנ') אלגוריתם עבור ועדה של ה-BBC שממיר טקסט כתוב לקול בקולו של טראמפ. בניסוי מקוון הוקראו בקול שישה משפטים על ידי האלגוריתם ועל ידי חקיינים של טראמפ, בהם אלק בולדווין וג'ון די דומניקו (אנ'). מתוך 267 משתתפים, 90% מצאו את הגרסה שנוצרה על ידי האלגוריתם כיותר משכנעת וקרובה למציאות מאשר דגימות הקול האנושיות של החקיינים[24].
באפריל 2018 יצרו הבמאי והקומיקאי ג'ורדן פיל ומנכ"ל באזפיד ג'ונה פרטי סימולציית דיפ-פייק של אובמה שבה הוא מסביר על הסכנה של פייק ניוז[25]. התשדיר הוויראלי נפתח במילים: "We’re entering an era in which our enemies can make it look like anyone is saying anything at any point in time" (בעברית: אנו נכנסים לעידן שבו האויבים שלנו יכולים לגרום לזה להיראות כאילו כל אחד אומר כל דבר בכל נקודה בזמן)[26]. הסרטון נוצר באמצעות אפליקציית החלפת הפנים FakeApp ותוכנת אפטר אפקטס[27].
בספטמבר 2018 שלחו שלושה נציגים מבית הנבחרים של ארצות הברית מכתב לראש המודיעין הלאומי שבו ביקשו ממנו להעריך את האיום שדיפ-פייקים מהווים על הביטחון הלאומי של ארצות הברית. במכתב תיארו את הדיפ-פייק כזיוף דיגיטלי היפר-ריאליסטי והזהירו כי הטכנולוגיה יכולה להוביל לסחיטה ודיסאינפורמציה[1].
תהילה שוורץ אלטשולר, חוקרת במכון הישראלי לדמוקרטיה, אמרה על תופעת הדיפ-פייק "אנחנו בעולם של פוסט אמת, נתקלים בהרבה דיסאינפורמציה, ולתכנים הללו יש נטייה להתפזר ברשתות החברתיות אפילו מהר יותר ממידע אמיתי" והוסיפה בהקשר של מערכות הבחירות בישראל "החשש הוא שניתן יהיה להטות את תוצאות הבחירות על ידי פרסום מידע לא נכון, מידע ערוך, ושזה ישפיע על דעת הקהל. [...] הטכנולוגיה הזאת מערערת את האמון שלנו כחברה בעצם היכולת שלנו לברר את המציאות"[28].
במרץ 2019 יצר המפתח הישראלי בר היללי מודל תלת-ממדי של בנימין נתניהו בשם "Synthesizing Bibi" (פרפרזה לתוכנית המחשב "Synthesizing Obama" משנת 2017)[29]. היללי הודיע כי אין בכוונתו לפרסם את הקוד בגלל "רגישויות של פרויקטים מהסוג הזה"[29].
בספטמבר 2019 שודר עימות טלוויזיוני מזויף בין מועמדים לראשות הממשלה בהנחיית ארז טל וישראל קטורזה בוועידת המשפיעים של חדשות ערוץ 12. העימות נוצר על ידי מפתחים מחברת "Canny AI" הישראלית; הוא משלב חקייני קול עם טכנולוגית דיפ-פייק שמייצרת מחדש את פני הפוליטיקאיים כך שיתאימו לקול המזויף[30].
בנובמבר 2019 נערך ראיון מזויף עם אביגדור ליברמן בתוכנית "מועדון לילה" באמצעות טכנולוגיית Deepfake[31].
מבחינה טכנולוגית דיפ-פייק מבצעת סינתזת דימוי אנושי (אנ') מבוססת בינה מלאכותית. באמצעות סופראימפוזיציה וטכניקת למידת מכונה הידועה כרשת אדברסרית גנרטיבית (GAN)[32].
בינואר 2018, הושקה תוכנה קניינית (אנ') (להבדיל מתוכנה חופשית) בשם "FakeApp"[33]. האפליקציה מאפשרת למשתמשים ליצור ולשתף בקלות יחסית סרטוני וידאו עם פנים שהוחלפו. האפליקציה משתמשת ברשת עצבית מלאכותית, ודורשת מעבד גרפי ושטח אחסון של בין 3 ל-4 ג'יגה-בייט ליצירת וידאו מזויף. התוכנה זקוקה לחומר ויזואלי רב של האדם שאת פניו רוצים להכניס לווידאו המקורי כדי שאלגוריתם למידה עמוקה ילמד איזה היבטים בתמונה יש להחליף. התוכנה משתמשת בתשתית "TensorFlow" של גוגל.
באוגוסט 2018, חוקרים מאוניברסיטת קליפורניה בברקלי פרסמו מאמר שהציג אפליקציית ריקוד מזויף שיוצרת את הרושם של יכולות ריקוד מקצועי באמצעות בינה מלאכותית[34].
החל משנת 2019, "FakeApp" הוחלפה על ידי חלופות קוד פתוח דוגמת DeepFaceLab[35], FaceSwap[36] ו-myFakeApp[37].
חברות עסקיות גדולות החלו להשתמש בטכנולוגית דיפ פייק. חברת "Momo" הסינית יצרה את אפליקציית "Zao" שמאפשרת למשתמשיה לשתול את פניהם על קטעי טלוויזיה וקולנוע באמצעות תמונה אחת. האפליקציה זכתה לפרסום רב בספטמבר 2019, לאחר שמשתמש בטוויטר פרסם סרטון קצר שלו כלאונרדו דיקפריו. הסרטון הויראלי נוצר תוך 8 שניות באמצעות האפליקציה[38].
במקביל לפיתוח תוכנות שמייצרות זיופים ויזואליים, פותחו גם תוכנות לעיבוד וזיוף קול.
בסוף שנת 2016, אדובי הכריזה על יצירת אב טיפוס לתוכנה חדשה בשם "VoCo" שתאפשר לקחת הקלטה של קול אנושי ולהוסיף לה בהקלדה מילים ומשפטים חדשים שיישמעו כאילו נאמרו על ידי הדובר המקורי. התוכנה זקוקה לדגימת קול בת 20 דקות[33].
סטארט-אפ קנדי בשם Lyrebird מפתח מוצר שיאפשר ליצור הקלטה מלאכותית על סמך דגימת קול בת 60 שניות[33].
בסוף 2017, חברת באידו הסינית הכריזה על פיתוח Deep Voice, מטקסט לדיבור בזמן אמת, תוכנה לשיבוט קול שזקוקה לדגימת קול מקורית בת שניות אחדות בלבד[33][39].
בשנת 2019 נגנבו כמעט רבע מיליון דולר על ידי זיוף קול[40].
ככל שטכנולוגיית דיפ-פייק מתפתחת נעשה קשה יותר ויותר להבחין בין זיוף למקור. בשל כך, חוקרים החלו לפתח כלים לאימות תוכן ואיתור דיפ-פייק: הסטארט-אפ Truepic פיתח אלגוריתם לאימות תמונות באמצעות אפליקציה[41]; חוקרים מאוניברסיטת אולבני פיתחו גלאי זיופים על סמך דפוסים לא טבעיים של מצמוצים[42]; חוקרים מאוניברסיטת דרום קליפורניה בשיתוף עם המכון לטכנולוגיות יצירתיות בלוס אנג'לס (אנ') בנו אלגוריתם לזיהוי בינה מלאכותית בסרטוני וידאו של פוליטיקאים שעוקב אחר הבעות פנים זעירות הידועות גם כביומטריה רכה (אנ')[42].
דרפ"א - סוכנות המחקר הטכנולוגי של הצבא האמריקאי החלה לפתח טכנולוגיות אוטומטיות לאיתור זיופים ואימות אותנטיות של סרטוני וידאו באמצעות מעבדת מדיה פורנזית[28], דוגמת זיהוי חוסר עקביות בתאורה על פני המשתמש[1] בעוד הוועדה הטרנס-אטלנטית ליושר בבחירות (אנ') מפתחת כלים למניעת התערבות דיפ-פייקים בבחירות לנשיאות[1].
הטכנולוגיה הגיעה לחשיפה בציבור הרחב בתקופה בה עדיין בוצעו חקירות בארצות הברית בנוגע להשפעתה של חברת קיימברידג' אנליטיקה ולגורמים מרוסיה על הבחירות לנשיאות ארצות הברית של שנת 2016, ועל רקע חשדות להתערבותן של רוסיה ומדינות נוספות בבחירות במדינות דמוקרטיות נוספות[43][44]. בתקופה זו הציבור המערבי היה רגיש במיוחד לתופעות של שימוש במידע כוזב לצרכים פוליטיים, דוגמת השיטות הדיגיטליות להפצת פייק ניוז ברשתות החברתיות. אווירה ציבורית זו גרמה לכך שהדיפ-פייק מלכתחילה נתפס כאיום לא מוכר להטיה אפשרית של תוצאות בחירות במדינות דמוקרטיות, להשפעה על תפיסות ציבוריות של ציבורים רחבים ולזריעת בלבול ומחלוקת בין מדינות יריבות[45].
הלחץ הציבורי על הרשתות החברתיות, שנתפסו בציבור ובקרב פוליטיקאים משני המחנות האמריקאים כאחראיות במידה מסוימת על ניצול הפלטפורמות שלהן לביצוע שיטות התערבות בתוצאות הבחירות, דחף אותן למהר ולחפש פתרונות לנושא, ולשתף פעולה עם חברות טכנולוגיה המציעות פתרונות לנושא. ההנחה טרם הבחירות לנשיאות ארצות הברית של שנת 2020, היא שמדובר בטכנולוגיה לא מוכרת המתפתחת במהירות, כך שמציאת פתרון גורף לתופעה עד לבחירות הוא לא סביר[45].
בשנת 2019 הפכה קליפורניה למדינה הראשונה שחוקקה חוקים נגד הדיפ-פייק, כאשר אושרו במדינה שני חוקים - האחד אוסר על הפצה של סרטונים שעברו מניפולציה במטרה לפגוע בדמותו של מועמד פוליטי, או להשפיע על דעתם הפוליטית של מצביעים בטווח של 60 יום מיום בחירות. השני מעניק לתושבי קליפורניה את הזכות לתבוע אדם שיצר דיפ פייק בו מוטמעת דמותם בחומרי פורנו ללא הסכמתם[46].
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.