דיגיטל וטק

האיום על הבחירות ב-2024: מניפולציות סייבר ובינה מלאכותית

2024 היא שנת הבחירות הגדולה בהיסטוריה כאשר כ-2 מיליארד אנשים ברחבי כל העולם יצביעו בבחירות כלשהן, אך כיצד הבינה המלאכותית והסייבר ישפיעו עליהן?
חן בורשן | 
חן בורשן (צילום סקייהוק)
יותר מ-50% מתושבי כדור הארץ יצביעו השנה בבחירות. 2024 היא שנת הבחירות הגדולה בהיסטוריה, שבה כ-2 מיליארד אנשים ברחבי העולם יצביעו בבחירות כלשהן.  
האם הבחירות הללו יהיו בטוחות וחפות ממניפולציות? לא סביר להניח כך. ברור למדי שמדינות מסוימות להוטות לנצל ולשבש את התהליך הדמוקרטי של מדינות אחרות. למשל- סין. מיקרוסופט האשימה בפומבי את הסינים בשימוש בתוכן שנוצר על ידי בינה מלאכותית כדי לזרוע פילוג בארה"ב, תוך מינוף חשבונות מזויפים בכדי לאסוף מודיעין ותובנות על קווי השבר העיקריים של הבוחרים בארה"ב, כדי להגביר את המחלוקות ולהשפיע על דעות הציבור. מיקרוסופט טוענת שסין כבר ניסתה קמפיין דיסאינפורמציה שנוצר על ידי בינה מלאכותית בבחירות לנשיאות טייוואן בינואר, והיא צופה שסין תשתמש באותן שיטות כדי להשפיע על הבחירות גם בדרום קוריאה ובהודו.
כמו סין, גם רוסיה תתערב בבחירות של שכנותיה באיחוד האירופי (וייתכן שכבר החלה לעשות זאת, לאחר שאתרי אינטרנט של לפחות שלוש מפלגות בהולנד הותקפו על רקע הבחירות לפרלמנט האירופי בתחילת יוני) .
לאור הקמפיינים שנחשפו עד כה, נראה שסין ורוסיה (ואולי גם איראן וצפון קוריאה), ישתמשו בשיטות הבאות כדי להפריע לבחירות חופשיות ודמוקרטיות:

1. מניפולציה במדיה חברתית- השיטה הקלה והמוכחת ביותר. נוסתה לראשונה בבחירות 2016 בארה"ב (באמצעות מנגנון הפרסום של  Fakebook (פרשת קיימברידג' אנליטיקה). שיטה זו הוכחה כיעילה בזריעת פילוג והשפעה על תוצאות הבחירות על ידי עידוד דמוגרפיה ספציפית להצביע תוך דיכוי מצביעים אחרים
2. הפצת פייק ניוז ותעמולה – שיטה שנמצאת בשימוש נרחב על ידי מדינות אלו. פייק ניוז (שגם הן, בגדול, מופצות באמצעות מדיה חברתית) הן נשק פסיכולוגי יעיל שיכול להשפיע על תוצאות הבחירות. 
3. פריצה ישירה של מפלגות פוליטיות (כגון ה-DNC הפריצה של 2015), של מכונות הצבעה ומערכות וארגונים אחרים- זוהי השיטה המתוחכמת מכולן, שדורשת תכנון נכון ומשאבים נרחבים.
מה משותף לשלוש השיטות? השימוש ב-AI ישפר מאוד את יכולת התוקפים לפעול בקנה מידה נרחב. בואו נסתכל מקרוב על קמפיין קודם, כמו הקמפיין האיראני שמטרתו הייתה לערער ולהשפיע על הבחירות לנשיאות ארה"ב ב-2020.
הקמפיין הזה עשה שילוב בפריצת סייבר, יצירת הודעות מזויפות בטכנולוגיית דיפ פייק ושימוש הנדסה חברתית. זה תוכנן ובוצע בקפידה, אבל זה נעשה על ידי קומץ האקרים מיומנים מאוד שעבדו בשיטות חצי ידניות. כעת דמיינו את ההאקרים המוכשרים  האלו חמושים בכוח הבינה המלאכותית המשמשים ליצירת תוכנות זדוניות, ליצירת גרסאות רבות של הודעות דיוג וליצירת וידאו קליפים בעלי מראה מציאותי (ועם זאת מזויף). הקמפיינים המשופרים האלו צפויים לצבור תאוצה ככל שהטכנולוגיות הללו הופכות לנפוצות וזוכות לשימוש נרחב יותר.
יוזמה בשם "שאר העולם" יצירת מסד נתונים מקוון של דוגמאות שניתן להשתמש בהן כדי להבין את הדרכים הרבות שבהן נעשה שימוש ב- AI  בהקשרי בחירות, במיוחד במדינות לא מערביות כמו הודו, דרום אפריקה ומקסיקו. עד כה, הגשש כולל דוגמאות של סרטונים מזויפים, תמונות ויזואליות וקטעי אודיו שעברו מניפולציות, ואפילו קטעי וידיאו מתוחכמים שנשלחו לבוחרים בוואטסאפ על ידי מועמד, שכוללים פנייה אישית לאדם בשמו (אך שנוצרו למעשה על ידי שילוב של שיבוט קול ותוכנת סנכרון שפתיים).
למעשה, רשתות ופלטפורמות מדיה חברתית, כגון WhatsApp (שנמצאת בבעלות  Meta, הן המפתח להתמודדות מול פעולות כאלה. לכן, הכרחי שהחברות המפעילות את הפלטפורמות הללו יישאו באחריות למניעת גורמים זדוניים מלהשתמש בהן כדי לתמרן ולערער דמוקרטיות. "הקואליציה העולמית לצדק טכנולוגי", קונסורציום של אזרחים, פעילים ומומחים, מלפחות 160 קבוצות אקטיביסטיות מ-55 מדינות, פנו בפומבי לענקיות הטכנולוגיה כולל Meta, Google, X ו-TikTok, והתחייבו לעשות יותר ב- על מנת ליישם אמצעים הולמים להגנה על אנשים ותהליכים דמוקרטיים מפני הפרעות והפרעות.
בניגוד לבחירות הקודמות, נראה שגם רשויות אכיפת החוק ולפחות אחוז קטן מהאוכלוסייה הכללית מודעים לסיכונים של מניפולציות סייבר מבוססות בינה מלאכותית. במובן זה, עברנו כברת דרך מאז שהתערבותה של רוסיה בבחירות 2016 נעלמה מעיני כולם עד לאחר הבחירות. אבל בהתחשב בעובדה שיכולות ההאקרים שמשתמשים בבינה מלאכותית התגברו מאוד מאז, סוכנויות אכיפת החוק, התקשורת, ענקיות הטכנולוגיה והציבור צריכים כולם להתאמץ הרבה יותר על מנת למנוע למנוע מהמניפולציה הזו להצליח ולהשפיע על הדמוקרטיות בעולם.
תגובות לכתבה(0):

נותרו 55 תווים

נותרו 1000 תווים

הוסף תגובה

תגובתך התקבלה ותפורסם בכפוף למדיניות המערכת.
תודה.
לתגובה חדשה
תגובתך לא נשלחה בשל בעיית תקשורת, אנא נסה שנית.
חזור לתגובה