דיגיטל וטק

ביל גייטס שותק מול המתקפות על ה-AI, כיצד התבטא בעבר?

מול עצומת הענק לעצור את פיתוח הבינה המלאכותית, החברות שנכנסו למרוץ לא מעוניינות לעצור. האם הממשלות יתערבו, ובעצם, האם צריך בכלל לעצור?
מערכת ice |  1
ביל גייטס (צילום shutterstock)
מפתחי בינה מלאכותית, מומחי בינה מלאכותית ואפילו מייסד מיקרוסופט ביל גייטס בילו את השבוע האחרון בהגנה על עבודתם, לאחר שעלו טענות נגד בינה מלאכותית שהגיעו לשיא בחתימות של אילון מאסק, מייסד אפל סטיב ווזניאק ועוד, הקורא לעצור למשך שישה חודשים את פיתוח מערכות הבינה מלאכותית.
המכתב, שכיום יש לו יותר מ-13,500 חתימות, הביע חשש ש"המרוץ המסוכן" לפיתוח תוכניות כמו ChatGPT של OpenAI, צ'טבוט Bing AI של מיקרוסופט ו-Alphabet's Bard של גוגל, שעלולות להיות להם השלכות שליליות אם לא ייבדקו, מדיסאינפורמציה נרחבת ועד לייתור משרות אנושיות.
אולם מי שעומד מאחורי הפיתוחים לא מעוניין להפסיק את העבודה. "אני לא חושב שבקשה מקבוצה מסוימת להשהיה, פותרת את האתגרים", אמר ביל גייטס לרויטרס ביום שני. יהיה קשה לאכוף הפסקה בתעשייה גלובלית, הוסיף גייטס - אם כי הוא הסכים שהתעשייה זקוקה למחקר נוסף כדי "לזהות את האזורים המסובכים".
ממה ווזניאק ומאסק מודאגים?
החששות שתוארו במכתב מובנות: "בחודשים האחרונים נראו מעבדות בינה מלאכותית נעולות במרוץ שיצא מכלל שליטה לפיתוח ופריסה של מוחות דיגיטליים חזקים יותר ויותר שאף אחד - אפילו לא יוצריהם - לא יכול להבין, לחזות או לשלוט בהם בצורה מהימנה."
מערכות AI מגיעות לרוב עם הטיות תכנות ובעיות פרטיות אפשריות. הן יכולות להפיץ מידע מוטעה באופן נרחב, במיוחד כאשר משתמשים בהם בזדון. קל לדמיין חברות שמנסות לחסוך כסף על ידי החלפת משרות אנושיות - מעוזרים אישיים ועד לנציגי שירות לקוחות - במערכות בינה מלאכותית.

איטליה כבר אסרה זמנית את ChatGPT בגלל בעיות פרטיות הנובעות מהפרת נתונים של OpenAI. ממשלת בריטניה פרסמה בשבוע שעבר המלצות לרגולציה, וארגון הצרכנות האירופי קרא למחוקקים ברחבי אירופה להגביר גם את התקנות.
גם ברחבי ארה"ב קמו מספר מדינות שחוקקו חוקי שקיפות עבור בינה מלאכותית שמטרתם לאלץ חברות לחשוף מתי ואיך מוצרי ה-AI שלהם עובדים, ולתת ללקוחות הזדמנות לבטל את הסכמתם לספק נתונים אישיים עבור החלטות אוטומטיות בינה מלאכותית.
מה אומרים מפתחי AI?
בציוץ ביום רביעי, הודה מנכ"ל OpenAI, סם אלטמן, כי "מסגרת רגולטורית עולמית יעילה הכוללת ממשל דמוקרטי" ו"תיאום מספיק" בין חברות בינה כללית מלאכותית (AGI) מובילות יכולה לעזור.
אבל אלטמן, שהחברה שלה במימון מיקרוסופט מייצרת את ChatGPT וסייעה בפיתוח צ'אטבוט הבינה המלאכותית של בינג, לא פירטה מה עשויות מדיניות זו לכלול.
כמה חוקרים מעלים סוגיה נוספת: הפסקת מחקר עלולה לחנוק את ההתקדמות בתעשייה הנעה במהירות, ולאפשר למדינות סמכותיות שמפתחות מערכות בינה מלאכותיות משלהן להתקדם.
הדגשת האיומים הפוטנציאליים של בינה מלאכותית עשויה לעודד שחקנים רעים לאמץ את הטכנולוגיה למטרות מרושעות, אומר ריצ'רד סוצ'ר, חוקר בינה מלאכותית ומנכ"ל הסטארט-אפ You.com. הוא אומר כי ההיסטריה של המכתב מוגזמת משום ש"אי אפשר לאכוף, והוא מתמודד עם הבעיה ברמה הלא נכונה", הוא מוסיף.
נראה שחוסר התגובה למכתב ממפתחי בינה מלאכותית מעידה על כך שספק אם ענקיות הטכנולוגיה והסטארט-אפים יעצרו את עבודתם מרצונם. רגולציה ממשלתית מוגברת נראית סבירה יותר, במיוחד מכיוון שמחוקקים בארה"ב ובאירופה כבר דוחפים לשקיפות ממפתחי בינה מלאכותית.
נראה ששני הצדדים מסכימים על דבר אחד: כדאי למנוע את התרחישים הגרועים ביותר של פיתוח AI מהיר. בטווח הקצר, זה אומר לספק למשתמשי מוצרי AI שקיפות, ולהגן עליהם מפני רמאים. בטווח הארוך, פירוש הדבר למנוע ממערכות AI אפשרות לעלות על אינטליגנציה ברמת האדם, ולשמור על יכולת לשלוט בה ביעילות.
"ברגע שתתחיל לייצר מכונות שמתחרות ומתעלות על בני אדם עם אינטליגנציה, יהיה לנו קשה מאוד לשרוד", אמר גייטס ל-BBC ב-2015. "זה פשוט בלתי נמנע".
תגובות לכתבה(1):

נותרו 55 תווים

נותרו 1000 תווים

הוסף תגובה

תגובתך התקבלה ותפורסם בכפוף למדיניות המערכת.
תודה.
לתגובה חדשה
תגובתך לא נשלחה בשל בעיית תקשורת, אנא נסה שנית.
חזור לתגובה
  • 1.
    הבעיה הגדולה עם AI היא שאי-אפשר לבדוק אותו
    הייטקיסט 04/2023/08
    הגב לתגובה זו
    0 0
    גם המדענים שפיתחו אותו, לא יכולים לקבוע אם התשובות שהוא נותן, הן נכונות/מדויקות, כי אי אפשר לבדוק איך הוא הגיע לתשובות בכלל רמת הסיבוכיות וכמות הדאטה העצומה שהוא ניזון ממנה
    סגור