מדדים ומחקרים

הם הוזים: מחקר חדש חושף ירידה באיכות הצ'אטבוטים

איכות הצ'אטבוטים המבוססים על בינה מלאכותית נמצאת במגמת ירידה, כך מגלה מחקר חדש שפורסם בכתב העת Nature Scientific Journal. הדוח מצביע על כך שמודלים חדשים של בינה מלאכותית מביאים לעלייה בשגיאות בתשובות הניתנות למשתמשים
שרון בירקמן | 
רפואה ובינה מלאכותית (צילום shutterstock)
תחום הבינה המלאכותית מתמודד עם ירידה באיכות הצ'אטבוטים, כך עולה ממחקר חדש שפורסם בכתב העת Nature Scientific Journal. המחקר, שכותרתו "מודלי שפה גדולים וניתנים להנחיה הופכים לפחות אמינים", מצא כי צ'אטבוטים מבוססי בינה מלאכותית טועים יותר ככל שמושקים מודלים חדשים.
אחד החוקרים הסביר כי המודלים מתוכננים להציג תשובות שנראות מהימנות, אך לעיתים קרובות התשובות עצמן אינן מדויקות. התופעה ידועה כ"הזיות" של בינה מלאכותית והיא מחמירה עם הזמן, במיוחד כאשר מודלים ישנים משמשים להכשרת מודלים חדשים. התוצאה היא מצב של כישלון המודל, בו התשובות הנכונות נדחקות.
"חשוב שהמשתמשים יאמתו את המידע שהם מקבלים ממודלים של בינה מלאכותית. זה הופך למורכב יותר כאשר מדובר בצ'אטבוטים לשירות לקוחות", אמר העורך והכותב מתייה רוי. במקרה של שירות לקוחות, ללקוחות יש קושי לבדוק את אמיתות המידע המסופק על ידי הצ'אטבוט והם עלולים לפעול בצורה שגויה על סמך מידע זה. 

בכירים בתעשיית הבינה המלאכותית כמו מנכ"ל אנבידיה ג'נסן הואנג, מציעים להגביל את בעיית ההזיות באמצעות כך שהמודלים יחויבו לספק מקורות לכל תשובה. צעדים דומים כבר נמצאים בשימוש במודלים הפופולריים ביותר, אך הבעיה נמשכת.
בתוך כך, ממחקר אחר שנערך על צ'אטבוטים באוניברסיטת ולנסיה עולה כי המודלים נוטים להיות פחות מדויקים במשימות שהאנשים רואים כקשות, אך הם אינם מדויקים לחלוטין גם במשימות פשוטות, כלומר אין "אזור בטוח" שבו המודלים יכולים להיחשב לאמינים. 
תגובות לכתבה(0):

נותרו 55 תווים

נותרו 1000 תווים

הוסף תגובה

תגובתך התקבלה ותפורסם בכפוף למדיניות המערכת.
תודה.
לתגובה חדשה
תגובתך לא נשלחה בשל בעיית תקשורת, אנא נסה שנית.
חזור לתגובה