דיגיטל וטק
מטא בדוח מטריד: הסכנות ההרסניות של הבינה המלאכותית
מטא מציגה מדיניות חדשה להגבלת בינה מלאכותית מסוכנת, מחשש לשימוש בה לפיתוח נשק ביולוגי, פריצות לרשתות מוגנות ואיומים קטסטרופליים נוספים. האם ענקית הטכנולוגיה באמת תעצור את הפיתוחים המסוכנים לפני שיהיה מאוחר מדי?

מטא פרסמה מסמך מדיניות חדש בשם Frontier AI Framework, שבו היא מציינת כי ייתכן שלא תשחרר מערכות בינה מלאכותית מתקדמות אם הן ייחשבו למסוכנות מדי. למרות שהחברה, בראשות מארק צוקרברג, התחייבה להפוך בעתיד את הבינה המלאכותית הכללית (AGI) לזמינה לציבור, המסמך מגדיר מצבים שבהם מערכת AI עלולה שלא לצאת לשוק בשל סיכונים משמעותיים.
לפי מטא, ישנם שני סוגי מערכות AI מסוכנות: "בסיכון גבוה" ו"בסיכון קריטי". מערכות בסיכון גבוה עשויות להקל על תקיפות סייבר או שימוש בחומרים כימיים וביולוגיים, אך לא באופן עקבי. לעומת זאת, מערכות בסיכון קריטי עלולות לאפשר פגיעה קטסטרופלית שאין לה דרך בלימה במסגרת פריסת המערכת. דוגמאות לסיכונים שמטא ציינה כוללות תקיפה אוטומטית של רשתות מוגנות היטב והפצה של נשק ביולוגי הרסני.
במקרה של מערכת בסיכון גבוה, מטא תעכב את השחרור שלה עד להפחתת הסיכונים לרמה סבירה. אם מערכת מסווגת כבעלת סיכון קריטי, החברה עשויה לעצור את הפיתוח לחלוטין ולנקוט אמצעי אבטחה למניעת דליפת הטכנולוגיה. מסמך המדיניות מצביע גם על רצונה של מטא להציג גישה אחראית יותר, במיוחד לנוכח הביקורת על מדיניות ה-AI הפתוחה שלה, וזאת בהשוואה לחברות כמו OpenAI, שמגבילות גישה למערכות שלהן, ולחברת DeepSeek הסינית, שה-AI שלה מכיל פחות מנגנוני הגנה.
הכתבות החמות
תגובות לכתבה(0):
תגובתך התקבלה ותפורסם בכפוף למדיניות המערכת.
תודה.
לתגובה חדשה
תודה.
לתגובה חדשה
תגובתך לא נשלחה בשל בעיית תקשורת, אנא נסה שנית.
חזור לתגובה
חזור לתגובה