דיגיטל וטק

כלי התמלול של OpenAI מעורר חששות: נותן המלצות רפואיות שגויות?

כלי התמלול Whisper נחשב אמנם לכלי פורץ דרך, אך דיווחים חדשים מגלים שהוא מכניס לתמלול תוכן שאינו קיים בהקלטה – מה שמעלה שאלות מטרידות לגבי השימוש בו במצבים רגישים
רפאל בן זקרי | 
סם אלטמן, מנכ"ל OpenAI (צילום shutterstock)
כלי התמלול Whisper של OpenAI, שנחשב לפורץ דרך בתחום עיבוד השפה, מעורר חששות בקרב מהנדסי תוכנה וחוקרים. לפי דיווח של סוכנות הידיעות AP, הכלי, שממיר הקלטות אודיו לטקסט, נוטה להזיות – כלומר, הוספת תוכן שאינו קיים כלל באודיו המקורי. למרות שנטייה זו ידועה במערכות AI גנרטיביות, היא מפתיעה במיוחד בהקשר של תמלול, שבו מצופה שהמערכת תדבוק בתוכן המקורי של ההקלטה.
חוקרים דיווחו כי הכלי Whisper הכניס תכנים כמו הערות גזעניות והמלצות רפואיות בדויות, מה שעלול להוות סכנה במצבים רגישים כמו תמלול שיחות רפואיות. חוקרים מאוניברסיטת מישיגן מצאו כי ב-80% מהתמלולים של פגישות ציבוריות הופיעו שגיאות מסוג זה. מהנדס למידת מכונה מצא הזיות ביותר ממחצית מהתמלולים של 100 שעות אודיו. כמו כן, מפתח נוסף דיווח כי ב-26,000 תמלולים שיצר באמצעות Whisper הופיעו שגיאות דומות כמעט בכולם.
בתגובה לפרסום הדברים, OpenAI הבהירה כי החברה פועלת לשיפור המודלים שלה, במטרה להפחית את תופעת ההזיות, ואף ציינה כי הכלי אינו מיועד לשימוש בקבלת החלטות קריטיות.
תגובות לכתבה(0):

נותרו 55 תווים

נותרו 1000 תווים

הוסף תגובה

תגובתך התקבלה ותפורסם בכפוף למדיניות המערכת.
תודה.
לתגובה חדשה
תגובתך לא נשלחה בשל בעיית תקשורת, אנא נסה שנית.
חזור לתגובה