דיגיטל וטק
מחקר ה-BBC חושף: אלו כלי ה-AI שמספקים תשובות שגויות
בדיקת עומק מגלה שמודלים פופולריים כמו ChatGPT ו-Gemini מספקים תשובות המכילות טעויות חמורות, כולל עובדות שגויות וציטוטים מומצאים. עד כמה אפשר לסמוך על סיכומי חדשות מבוססי בינה מלאכותית?

מחקר חדש של ה-BBC חושף כי כלים לסיכום חדשות בעזרת בינה מלאכותית (AI) נוטים לספק מידע לא מדויק או מטעה בשיעור גבוה במיוחד. במסגרת המחקר, נבחנו מודלי AI שונים - ביניהם ChatGPT של OpenAI, קופיילוט של מיקרוסופט, Gemini של גוגל ו-Perplexity - כדי לבדוק את היכולת שלהם לספק תשובות מדויקות לשאלות על חדשות שפורסמו באתר ה-BBC. התוצאות העלו ש-51% מהתשובות הכילו בעיות משמעותיות.
מבין הבעיות הנפוצות, 19% מהתשובות הציגו עובדות שגויות כמו מספרים או תאריכים לא נכונים, ו-13% מהציטוטים שהובאו מתוך כתבות ה-BBC שונו או כלל לא הופיעו במקור המצוטט. Gemini של גוגל דורג כבעייתי ביותר, כאשר 34% מהתשובות שסיפק היו בעלות טעויות, בהשוואה ל-27% אצל קופיילוט, 17% ב-Perplexity, ו-15% בלבד ב-ChatGPT.
בתגובה לתוצאות, כתבה מנכ"לית ה-BBC, דבורה טרנס כי "לא ייתכן שבעולם שמחפש ודאות, אנשים המחפשים תשובות יקבלו מידע מעוות המוצג כאמת. כלים אלה עלולים לערער עוד יותר את אמון הציבור בעובדות מאומתות, והסכנה לכך שהם יגרמו לנזק ממשי בעולם האמיתי היא ממשית."
הכתבות החמות
תגובות לכתבה(1):
תגובתך התקבלה ותפורסם בכפוף למדיניות המערכת.
תודה.
לתגובה חדשה
תודה.
לתגובה חדשה
תגובתך לא נשלחה בשל בעיית תקשורת, אנא נסה שנית.
חזור לתגובה
חזור לתגובה
-
1.זה המטרעעעעזה 02/2025/13הגב לתגובה זו0 0נכון מטרעעעעע.... לא מטרה, מטרת העולם זה כי האנשים יהיו יותר ויותר טיפשים, יהיה אמונה מלא בתוכנות ואז עושים ריסטרט וזה כל מה שרוצים, לרבות אנגדות ומילהם - תוך שני עשורים אנשים יהיו בורים ותלוים בתוכנות- - - נראה היום אנשים נוסעים ללא וויז למקומות רחוקים מהבית מהמרכז לטבריה/ ק.שמונה. או מהצפון לתל אביב או ב"ש... באחוזים בודדים נוסעים ללא וויז (ולא לא מגלל חשש מפקקים זה כי כבר אינו יודעים את הדרך וויז אומר הם מבצעים)סגור