ויראלי
אברי גלעד מזהיר: ''איש לא ביקש את רשותנו''
מגיש קשת 12 מספר על הטכנולוגיה המתקדמת והסכנה שהיא טומנת בחובה: ''הטכנולוגיה מתקדמת במהירות מסחררת, אך משאירה את האנושות מאחור. אנו נכנסים לעידן שבו האמת הופכת לחסרת משמעות והשקר הופך לבלתי ניתן לזיהוי אפילו בעין מיומנת''
רק לאחרונה מטא פרסמה מסמך מדיניות חדש בשם Frontier AI Framework, שבו היא מציינת כי ייתכן שלא תשחרר מערכות בינה מלאכותית מתקדמות אם הן ייחשבו למסוכנות מדי. המסמך מגדיר מצבים שבהם מערכת AI עלולה שלא לצאת לשוק בשל סיכונים משמעותיים. אולי בגלל זה גם אברי גלעד מגיש קשת 12 סיפר עד כמה הוא מתייעץ עם הצ'אט GPT.
גלעד הזהיר בטורו: ''אם אתם חושבים שהתפתחות הבינה המלאכותית דומה למעבר מכרכרות למכוניות או מתאורת גז לחשמל, אתם טועים. זה אינו שיפור טכנולוגי גרידא, אלא שינוי מוחלט בכללי המשחק האנושיים, שינוי שישאיר את רובנו חסרי כלים להתמודדות בעולם החדש. ברגע שלוקחים מאיתנו את היכולת להבחין בין אמת לשקר, שומטים את הקרקע מתחת לרגלינו ואת הכלי היחיד החשוב באמת לקיומנו''.
הוא גם הזהיר: ''האם הסכמנו למצב החדש הזה? האם נשאלנו בכלל? איש לא ביקש את רשותנו. הטכנולוגיה מתקדמת במהירות מסחררת, אך משאירה את האנושות מאחור. אנו נכנסים לעידן שבו האמת הופכת לחסרת משמעות והשקר הופך לבלתי ניתן לזיהוי אפילו בעין מיומנת. מי היה מאמין שזה יקרה בימינו. הרגולציה לא נותנת עבודה בכלל, משאירים אותנו לחסדי כוחות השוק. אם לא נתעורר מייד, כבר לא נוכל להתעורר לעולם''.
כזכור, לפי מטא, ישנם שני סוגי מערכות AI מסוכנות: "בסיכון גבוה" ו"בסיכון קריטי". מערכות בסיכון גבוה עשויות להקל על תקיפות סייבר או שימוש בחומרים כימיים וביולוגיים, אך לא באופן עקבי. לעומת זאת, מערכות בסיכון קריטי עלולות לאפשר פגיעה קטסטרופלית שאין לה דרך בלימה במסגרת פריסת המערכת. דוגמאות לסיכונים שמטא ציינה כוללות תקיפה אוטומטית של רשתות מוגנות היטב והפצה של נשק ביולוגי הרסני.
עוד ב-
במקרה של מערכת בסיכון גבוה, מטא תעכב את השחרור שלה עד להפחתת הסיכונים לרמה סבירה. אם מערכת מסווגת כבעלת סיכון קריטי, החברה עשויה לעצור את הפיתוח לחלוטין ולנקוט אמצעי אבטחה למניעת דליפת הטכנולוגיה. מסמך המדיניות מצביע גם על רצונה של מטא להציג גישה אחראית יותר, במיוחד לנוכח הביקורת על מדיניות ה-AI הפתוחה שלה, וזאת בהשוואה לחברות כמו OpenAI, שמגבילות גישה למערכות שלהן, ולחברת DeepSeek הסינית, שה-AI שלה מכיל פחות מנגנוני הגנה.
הכתבות החמות
תגובות לכתבה(5):
תגובתך התקבלה ותפורסם בכפוף למדיניות המערכת.
תודה.
לתגובה חדשה
תודה.
לתגובה חדשה
תגובתך לא נשלחה בשל בעיית תקשורת, אנא נסה שנית.
חזור לתגובה
חזור לתגובה
-
5.טוב שיש לוחם צדק כמוך אבל תנסה להחזיק מעמדתכולת הצווארון 10/2025/08הגב לתגובה זו0 0בגיל 50 הוגלתי מLA LA LAND ונדהמתי לגלות שהרכבים כמו soft cell תארו כבר לפני שנים במוזיקת פופ שיטות דברים שהמעטים ברי המזל כמו י שלא היו עירניים לקיומם היו מפרשים כקונספירציות. בהקשר לדיעה על הגזמה בשימוש בבינות מלאכותיות זה רק ביטוי אחד לשלטון cyber שבו לשליטה ולתחזוקת ״חוות״ השרתים (שמכונים בתקשורת ההתרפסות ״עננים״ ומוגחכים כמו שלי יחימוביץ׳) יש השפעה מכרעת. וגם במידה שיציבו רובוטים וסייבורגים במקום שומרים אנושיים יש אמצעים טכניים לניטרול. וגם אם כבר טיקבקטי מעניין האם דודו טופז או איש בידור כלשהו כבר חשב על משחק שבו כל אחד ואחת בגיל מעל ארבעים נניח יחשבו איך היו נראים חייהםן אם היו נמנעים מלהיות אקטיביסטים (הייתי כמו כולם בתנועת נוער שבה הודרכנו לחשיבה ביקורתית להבדיל מנצלנות עזוז הנעורים) ונמנעתי כן הקפדתי וגם מעמדת כוח של בירוקרטית שהחיים הובילו אותי להיות בה בגיל 42 בערך להימנע מלרמוס זכויות ו/או להיכנע לתכתיבים מניפולטיביים של אפליות שמשמען הרס הסולדריות.סגור
-
4.אברי כשבשבתעמי 04/2025/18הגב לתגובה זו0 0הדבר והיפוכו .נתון למצבי רוח משתניםסגור
-
3.איברהים , הנח לנו , אתה כבר זקן לא רלוונטי, ליקוקים (ל"ת)ג׳וני קארסון 04/2025/18הגב לתגובה זו1 1סגור
-
2.הפסדנו.!!!אבשלום 04/2025/18הגב לתגובה זו0 0כל הקדמה לא שינה כלום במהות החיים של האדם. לאן אנחנו רוצים?סגור
-
1.אוקי. מעביר את זה לסם אלטמןיורם 04/2025/18הגב לתגובה זו0 0הוא בטוח יצחשב בכתבה מזורג.גת מn12 הנבזיםסגור



