דיגיטל וטק

בחוד החנית ההסברתי: השימוש בבינה מלאכותית בתעמולה בזמן מלחמה

השימוש בבינה מלאכותית במערך ההסברה בעת מלחמה, מייצר כללי משחק חדשים בזירה המחויבת באתיקה, רגישות ואחריות. כך הפך ה-AI לכלי משמעותי בקרב על התודעה ועיצוב הנרטיב

יסמין אוריה-הירש |  1
null (צילום shutterstock, פלאש 90/ מיכאל גלעדי)
הבינה המלאכותית (AI) חוללה ללא ספק מהפכה בתחומים וענפים רבים: משירותי בריאות ועד פיננסים – וזאת באמצעות מתן פתרונות חדשניים וייעול תהליכים. בדומה כמעט לכל כלי, ניתן לרתום בינה מלאכותית למטרות חיוביות ושליליות כאחד. העניין מקבל משנה תוקף, כאשר מדובר בשימוש בבינה מלאכותית בהסברה בזמן מלחמה, ובפעילות במסגרת זירה שהיא גם כך נפיצה ומחייבת אחריות ורגישות מקסימליים.
איזה יתרונות קיימים בשימוש בטכנולוגיה זו, מהן ההשלכות האתיות הטמונות בהטעמת AI במערך הסברה בעת מלחמה ואיך מינוף כוחה של הבינה המלאכותית יכול לסייע במאבק על התודעה ובעיצוב הנרטיב העולמי? את הערפל מאחורי הסוגיות כבדות המשקל הללו, ננסה לפזר בטור שלפניכם.
חשוב להבין: באקלים הסוער של מלחמה, השימוש בבינה מלאכותית מייצר שינוי דרמטי, ומהווה כלי מרכזי לעיצוב דעת הקהל, להנעת אזרחים ולחיזוק האחדות הלאומית בתקופות של סכסוך ומחלוקות. באמצעות שימוש ב-AI, יכולות מדינות להגביר את מאמצי התעמולה שלהן, תוך שימוש באלגוריתמים מתוחכמים ויכולות למידת מכונה כדי למקד ולתפעל קהלים ספציפיים.
  
  • לוחמה פסיכולוגית משופרת – כלי בינה מלאכותית יכולים לנתח ביעילות כמויות עצומות של נתונים, כדי לזהות הטיות פסיכולוגיות בתוך נתונים דמוגרפיים ממוקדים. על ידי הבנת העדפות, פחדים והטיות, יכולה הבינה המלאכותית להתאים מסרים משכנעים, המהדהדים עמוקות על קבוצות ספציפיות ומעצימים את השפעת התעמולה. האפקט המתקבל: סיוע להגברת התמיכה במטרה מסוימת, או לחילופין, שחיקת המורל של האויב.
 
  • הפצה אוטומטית – בינה מלאכותית מאפשרת אוטומציה של הפצת תעמולה ומצמצמת את הזמן והמאמץ הנדרשים כדי להגיע לקהל המוני. אלגוריתמים של למידת מכונה יכולים להעריך מגמות במדיה חברתית, לזהות דמויות משפיעות וליצור תוכן מותאם אישית המתכתב עם האמונות של קהל היעד. התאמה זו בזמן אמת, מאפשרת תגובה מהירה ומעורבות מתמשכת, ומבטיחה שמסר התעמולה יישאר רלוונטי ומשפיע.
 
  • טכנולוגיית Deepfake – טכנולוגיית Deefake מונעת בינה מלאכותית יכולה לתמרן תוכן חזותי ואודיו על מנת ליצור נרטיבים מטעים או להמציא אירועים שמעולם לא התרחשו. על ידי שימוש בזיופים עמוקים, יכולים אנשי תעמולה להונות ולתמרן את התפיסה הציבורית, לזרוע בלבול ומחלוקת בקרב קהלים מקומיים ובינלאומיים כאחד. העניין מציב כמובן אתגר משמעותי לשלמות המידע בתקופות של עימות.
 
בעוד שהיישומים הפוטנציאליים של בינה מלאכותית בתעמולה בזמן מלחמה מסקרנים, חיוני לא פחות להצביע גם על הדילמות האתיות הנובעות משימוש בכלי זה:
 
  • מניפולציה והטעיה – השימוש בבינה מלאכותית בתעמולה בזמן מערכה צבאית מעורר חששות לגבי מניפולציה ושימוש פוטנציאלי לרעה במידע. על ידי ניצול פגיעות פסיכולוגיות, מסתכנים תעמולנים בערעור עקרונות קבלת החלטות מושכלות וחברות דמוקרטיות.
 
  • הפצת דברי שנאה – שימוש ב-AI לרעה, עלול להגביר דברי שטנה, לעורר אלימות ולהנציח אפליה


יסמין אוריה-הירש, מנהלת המערך הדיגיטלי של מטה ההסברה הבינלאומית (צילום אופיר הראל) 
במצב עניינים שכזה, לא מפתיע שמערכות הסברה המשתמשות בכלי בינה מלאכותית עומדות בפני מספר אתגרים משמעותיים, אשר יש להתייחס אליהם בכובד ראש. מדובר בין היתר על:
 
  • הטיה והגינות – אלגוריתמי בינה מלאכותית הם חסרי פניות רק כמו הנתונים שהם מאומנים עליהם. אם הנתונים המשמשים לאימון מערכת הסברה מוטים או מכילים דפוסים מפלים, הרי שכלי הבינה המלאכותית עלול להנציח בטעות את ההטיות הללו – ועלול לגרום לייצוג לא שוויוני, לחזק את חוסר איזון הכוח הקיים ולדחוק קבוצות מסוימות לשוליים. על כן, חיוני להבטיח שמערכות בינה מלאכותית מאומנות על נתונים מגוונים וחסרי פניות כדי למתן את האתגרים הללו.
 
  • חוסר שקיפות – אחת הדאגות העיקריות הקשורות לכלי בינה מלאכותית, נוגעת לחוסר השקיפות באופן שבו הם מקבלים החלטות או מגיעים להמלצות ספציפיות. מערכות הסברה המשתמשות בבינה מלאכותית עשויות להתקשות להסביר מדוע נבחרו המלצות או פעולות מסוימות, מה שעלול להפריע או לפגום באמון והאחריות. מהסיבה הזו בדיוק, חיוני לפתח אלגוריתמי AI שניתנים לפירוש ומספקים תובנות שקופות לגבי תהליכי קבלת ההחלטות שלהם.
 
  • פרטיות והגנה על נתונים – מערכות תמיכה בבינה מלאכותית דורשות גישה לכמויות עצומות של נתונים כדי לקבל המלצות או תחזיות מושכלות. נתונים אלה כוללים לעתים קרובות מידע אישי, מה שמציב חששות לפגיעה בפרטיות. יצירת איזון בין ניצול נתונים לשיפור מאמצי ההסברה לבין הגנה על פרטיות הפרט היא קריטית, ומחייבת ליישם אמצעי הגנה איתנים על המידע בכדי להגן על מידע אישי ולמנוע שימוש לרעה.
 
  • שיתוף פעולה אנושי AI – יש לראות בבינה מלאכותית כלי המגביר את המאמצים האנושיים במקום להחליף אותם. מערכות הסברה הנשענות במידה רבה על AI צריכות לתת עדיפות לפיקוח ומעורבות אנושית כדי להבטיח אחריות וקבלת החלטות אתית. יצירת תמהיל נכון ומאוזן, המשלב בין שיקול דעת אנושי לבין המלצות שנוצרו על ידי בינה מלאכותית ונדרשות בבניית מערכות הסברה יעילות.
 
לסיכום, השימוש בבינה מלאכותית הוא מרכיב מרכזי בעיצוב דעת הקהל העולמית בתקופות מלחמה. היתרונות שלו בעיבוד מידע ובהבטחת דיוק וחיזוי מגמות הם מונומנטליים. עם זאת, עלינו להיות ערניים בפני סכנות של מניפולציות, חששות אתיים והסתמכות יתר על טכנולוגיה. AI, כאשר הוא מנוהל באחריות, עומד ככלי אדיר בארסנל שלנו להפצת תוכן חדשותי בינלאומי השואף להציג את הסיפור האמיתי של המלחמה שלנו לעולם.
*הכותבת, יסמין אוריה-הירש, יועצת אסטרטגית לחדשנות דיגיטלית, בעלים של סוכנות הדיגיטל קונספט מדיה המתמחה בפרסום מבוסס בינה מלאכותית ומנהלת כיום את המערך הדיגיטלי של מטה ההסברה הבינלאומית.
תגובות לכתבה(1):

נותרו 55 תווים

נותרו 1000 תווים

הוסף תגובה

תגובתך התקבלה ותפורסם בכפוף למדיניות המערכת.
תודה.
לתגובה חדשה
תגובתך לא נשלחה בשל בעיית תקשורת, אנא נסה שנית.
חזור לתגובה
  • 1.
    שימוש בינה
    צשה1 10/2023/30
    הגב לתגובה זו
    0 0
    כמשתמשים בבינה לצורך כתיבת כתבה..לא משהו. כרגיל בבינה, כללי, מספר על האריזה חובבני משהו..כמו ההסברה הבינלאומית
    סגור