דיגיטל וטק
הדמוקרטיה תחת איום: כך תפגע הבינה המלאכותית בבחירות בעולם
בימים אלו, מדינות רבות נערכות לבחירות שצפויות להכריע את עתידן למשך כמה שנים טובות. לאחר שמנהיגים רבים ניצלו את הרשתות החברתיות בכדי לזרוע פילוג בעם, כעת עומדת לרשותם הבינה המלאכותית שגם היא עשויה לפגוע בדמוקרטיה
שנת 2024 תהיה שנת בחירות במדינות רבות ברחבי העולם, ובעיקר - ארה"ב. במהלך הבחירות הקודמות, מדינות זרות - בעיקר רוסיה, סין ואיראן ניצלו את פלטפורמות המדיה החברתית כדי להעמיק את הפילוג, להפחית את אחוזי ההצבעה ולקדם את המועמדים שנראו להם לנכון. אבל הרבה השתנה מאז, ובמהלך 2024 יש להם סט כלים חדש בארסנל-כלי הבינה המלאכותית שלהם.
איך אנחנו יודעים? כי זה כבר נוסה. עוד ב-2020 שני אזרחים איראנים ניסו לערער ולהשפיע על הבחירות לנשיאות ארה"ב (שנערכו באותה שנה) על ידי שילוב של פריצה, יצירת מסרים מזויפים עמוקים והנדסה חברתית. עבודתם נותנת לנו הצצה לפעולות סייבר מבוססות AI שיבואו בעתיד.
ראשית, הם ניסו לפרוץ אתרי בוחרים של 11 מדינות בארה"ב. למזלם הם הצליחו לחדור למערכת מחשבים של לפחות מדינה אחת בארה"ב, משם גנבו מידע על יותר מ-100,000 מצביעים.
לאחר מכן, הם יצרו הודעות אימייל והודעות מסנג'ר בפייסבוק, בטענה שהם חלק מקבוצת הימין הקיצוני Proud Boys”", קבוצה שטוענת שהמפלגה הדמוקרטית מתכננת לנצל "פגיעויות אבטחה חמורות" באתרי רישום בוחרים במדינה כדי לבצע מניפולציה על תהליך ההצבעה האלקטרוני במדינה.
אלה נשלחו לפוליטיקאים רפובליקנים ולאנשי תקשורת. הם לוו בסרטונים מזויפים (deep fake) הנושאים את הלוגו של ה- Proud Boys) המתארים פריצה לאתרי בוחרים במדינה ומשתמשים במידע גנוב של בוחרים כדי ליצור פתקי הצבעה מזויפים.
לאחר מכן, הם עברו להפחדת בוחרים ושלחו הודעות מאיימות רבות לעשרות אלפי מצביעים רשומים המאיימים בפגיעה פיזית אם לא ישנו את השתייכותם למפלגה ויצביעו לנשיא טראמפ.
ולבסוף, הם ניסו לחדור לרשת של חברת תקשורת אמריקאית, מה שהיה מספק להם פלטפורמה נוספת להפצת טענות שווא על הונאת בחירות. כל הפעילויות הללו - פריצה, יצירת הודעות מותאמות אישית, יצירת תכני וידאו ושמע מזויפים בטכנולוגיית Deep fake- נעשו באמצעים פרימיטיביים למדי שהקלו על לכידת ההאקרים. היום, את כל זה ועוד, אפשר לעשות באמצעות כלי AI מתקדמים. כיצד תתבצע הפרעה כזו באמצעות כלי בינה מלאכותית?.
מלכתחילה, AI שימושי מאוד לניתוח כמויות אדירות של נתונים. בינה מלאכותית יכולה לעזור לשחקנים זרים לסרוק פרסומים במדיה חברתית, מאגרי מידע באינטרנט, או כמעט כל פיסת מעקב דיגיטלית, ולאחר מכן להשתמש במידע זה למיפוי בוחרים.
הם יכולים לסקור פרופילים של מדיה חברתית ומאגרי נתונים ציבוריים כדי להבין מי הבוחרים בכל מדינה. לאחר מכן הם יכולים לזהות בוודאות רבה את הנטייה הפוליטית של כל אדם. אם צריך, הם יכולים "לפנות" באדם הזה באמצעות זהויות בדויה, לנהל שיחה או פשוט להחליף דעות כדי לקבוע בוודאות את השיוך הפוליטי שלו. ואז הם יכולים להגיד למכונה מה לעשות לאנשים האלה. האם לחזק את דעותיהם ולהבטיח שהם יצביעו עבור המועמד הנבחר?.
לסתור את דעותיו ולנסות לגרום לו לעבור למועמד אחר? להפחיד אותו או להרתיע אותו מלהצביע לגמרי? לא משנה מה המטרה, ה-AI ישמש להשפיע על הפרט על ידי יצירת הודעות טקסט, וידאו וקול מותאמות אישית, תוך העברת המסרים הנדרשים כדי להניע אותו לפעולה (או למנוע ממנו מלהצביע).
ארצות הברית מתגוננת
מפקד פיקוד הסייבר של ארה"ב שהוא גם מנהל ה-NSA, הגנרל פול נקסונה ומנהל ה-FBI, כריסטופר ריי, דיברו על הסכנות של AI בוועידה הבינלאומית העשירית לאבטחת סייבר בתחילת ינואר 2024. הם אמרו שלא רק שארצות הברית נמצאת בנחיתות מספרית מובנית של ארה"ב (המנהל ריי ציין יחס של 50:1 בין ארה"ב לסין בכל הנוגע לסוכני סייבר), שחקנים זרים משתמשים יותר ויותר בבינה מלאכותית כדי להציף את תשתיות האבטחה בארה"ב ולנצל את היתרון שלהם.
מפקד פיקוד הסייבר של ארה"ב שהוא גם מנהל ה-NSA, הגנרל פול נקסונה ומנהל ה-FBI, כריסטופר ריי, דיברו על הסכנות של AI בוועידה הבינלאומית העשירית לאבטחת סייבר בתחילת ינואר 2024. הם אמרו שלא רק שארצות הברית נמצאת בנחיתות מספרית מובנית של ארה"ב (המנהל ריי ציין יחס של 50:1 בין ארה"ב לסין בכל הנוגע לסוכני סייבר), שחקנים זרים משתמשים יותר ויותר בבינה מלאכותית כדי להציף את תשתיות האבטחה בארה"ב ולנצל את היתרון שלהם.
המנהל ריי אמר שסוכנויות ארה"ב זיהו הפרעות בבחירות כבר ב-2018, אבל מאז מדינות רבות צברו את היכולות והמוטיבציה לעסוק בפעילויות כאלה היום (הוא הזכיר רק את איראן בשמה, וזה לא מפתיע כפי שראינו קודם לכן שפעילותם כבר נחשפה).
עם זאת, המנהל ריי והגנרל נקסונה מרגישים בטוחים ביכולות הארגונים שלהם לאבטח את תהליך הבחירות. הדאגה העיקרית שלהם היא לא הפריצה והמניפולציה בפועל של המכניקה של תהליך הבחירות, אלא קמפיינים מתמשכים של לוחמה פסיכולוגית ומבצעי השפעה המתנהלים ברשתות חברתיות ובתקשורת. קשה הרבה יותר לזהות ולהתמודד עם פעילויות אלו.
אבל שתי הסוכנויות הללו אינן מתכוונות לתת לזרים לשחק לבד במגרש הבינה המלאכותית. הם מתכוונים לרתום אותה גם לצרכיהם. בספטמבר 2023 הודיע הגנרל נקסונה על הקמת ישות חדשה שתפקח על הפיתוח והשילוב של יכולות בינה מלאכותית בתוך מערכות הביטחון הלאומי של ארה"ב.
בהתייחסו ל"מרכז האבטחה החדש של AI", הגנרל נקאסונה אמר: "מרכז האבטחה של AI יעבוד בשיתוף פעולה הדוק עם התעשייה האמריקאית, מעבדות לאומיות, אקדמיה ברחבי (קהילת המודיעין) ומשרד ההגנה ועם שותפים זרים נבחרים".
מי עושה? CISA
ה-FBI ופיקוד הסייבר לא לבד במאבקם להבטחת הדמוקרטיה. CISA (שהיא חלק מהמחלקה לביטחון המולדת) עובדת בחריצות עם מספר בעלי עניין כדי להבטיח את הבחירות.
ה-FBI ופיקוד הסייבר לא לבד במאבקם להבטחת הדמוקרטיה. CISA (שהיא חלק מהמחלקה לביטחון המולדת) עובדת בחריצות עם מספר בעלי עניין כדי להבטיח את הבחירות.
לדברי ראש הסוכנות לשעבר, כריס קרבס, הסוכנות (ועמיתיה בפיקוד ה-FBI והסייבר) הצליחו להבטיח את הבחירות הקודמות ולא זוהו הפרעות מהותיות לתהליך (קרבס פוטר על ידי הנשיא לשעבר טראמפ לאחר פרסום הצהרה זו).
CISA מודעת גם לכך שנוף האיומים התפתח מאז הבחירות האחרונות, ולאחרונה פרסמה מסמך המפרט את השימושים המרושעים הפוטנציאליים של בינה מלאכותית, הנקרא: "פוקוס על AI גנרטיבי והבחירות 2024".
הם מדגישים ששחקנים זרים יכולים להשתמש בבינה מלאכותית כדי לזייף טקסט, סאונד, וידאו ותמונה כדי להשפיע על תהליך הבחירות, לתקוף משרדי בחירות ופונקצוינרים במערך הבחירות (ולהשיג גישה לנתוני הבוחרים) ואפילו לטרגט ספקי ציוד ממוחשב לבחירות (או להתחזות להם אומרים שהמוצרים שלהם פגומים ואין לסמוך על תוצאות הבחירות).
CISA מציעה להקים ולאכוף פרוטוקולים חזקים של אבטחת סייבר, כמו אימות רב-גורמי (MFA), להקשיח חשבונות מדיה חברתית אישיים וארגוניים וליישם עקרונות אפס אמון (Zero Trust) כדי למנוע גישה לא מורשית לנתונים ולשירותים.
סיכום
לפני כמה עשורים, האינטרנט נתפס כטכנולוגיה שתקדם את הדמוקרטיה בכל העולם. ארה"ב פיתחה אותה ונתנה אותה לעולם (ואפילו פיתחה את ה-Darknet כדי לאפשר תקשורת אנונימית). האינטרנט אכן הקל על שיתוף מידע מעבר לגבולות.
לפני כמה עשורים, האינטרנט נתפס כטכנולוגיה שתקדם את הדמוקרטיה בכל העולם. ארה"ב פיתחה אותה ונתנה אותה לעולם (ואפילו פיתחה את ה-Darknet כדי לאפשר תקשורת אנונימית). האינטרנט אכן הקל על שיתוף מידע מעבר לגבולות.
לאחר מכן, הגיעו הרשתות החברתיות ולקחו את הרעיון הלאה, וסייעו לאנשים מדוכאים ברחבי עולם הערבי לתאם ולהוציא לפועל מהפכות. אבל רוסיה, סין, צפון קוריאה ואיראן למדו כיצד להשתמש בכלים הללו וניסו לרתום אותם כדי לערער את היציבות בדמוקרטיה.
כעת עם הבינה המלאכותית, אנו עדים לגל השלישי של השפעת טכנולוגיית המחשבים על הדמוקרטיה. המערב פחות נאיבי עכשיו ומבין את הסיכונים, ומכיוון שארה"ב היא מובילה עולמית בפיתוח טכנולוגיית AI, עדיין יש לה יתרון שהיא יכול להשתמש בו כדי לסכל התערבות של שחקנים זרים ולהבטיח את הדמוקרטיה שלה. נאחל לה ולנו בהצלחה.
חן בורשן, מנכ"ל סקייהוק סקיוריטי, ותמונה באדיבות סקייהוק סקיוריטי
עוד ב-
(צילום: יח"צ)
הכתבות החמות
תגובות לכתבה(0):
תגובתך התקבלה ותפורסם בכפוף למדיניות המערכת.
תודה.
לתגובה חדשה
תודה.
לתגובה חדשה
תגובתך לא נשלחה בשל בעיית תקשורת, אנא נסה שנית.
חזור לתגובה
חזור לתגובה