דיגיטל וטק
OpenAI משיקה מוצר וחוטפת ביקורת: "סיכון רציני"
OpenAI חושפת כלי בינה מלאכותית חדש שמסוכל לבצע שיבוט קולי. בצל שנת הבחירות שמתרחשת ברחבי העולם, רבים הביעו חשש בנוגע לשימוש בכלי לרעה, אך החברה ניסתה להרגיע את הרוחות בטענה שהפיקוח עליו יהיה הדוק במיוחד. כל הפרטים
ביום שישי האחרון, חברת OpenAI, חשפה את "Voice Engine", מודל חדש, מבוסס בינה מלאכותית אשר מסוגל לבצע שיבוט קולי. למעשה, על פי פרטים שפורסמו בבלוג של החברה, המוצר החדש שפתחה, מסוגל לשכפל דיבור של כל אדם על סמך דגימת אודיו של כ-15 שניות.
עוד נמסר מטעם החברה שהיא מודעת לסכנות שיכולות להיגרם בגלל שימוש לרעה במוצר ושהיא מתכננת לשמור תחת פיקוח הדוק עד שיפותחו אמצעי הגנה כדי לסכל זיופי אודיו שנועדו לרמות את המאזינים.
בהצהרה נאמר כי: "אנו מכירים בכך שיצירת דיבור שדומה לקולות של אנשים היא סיכון רציני, במיוחד בשנת בחירות", אנחנו בקשר עם קולגות מכל התחומים בארה"ב ובחו"ל: בממשלה, התקשורת, הבידור, החינוך, והחברה האזרחית כדי להבטיח שאנחנו מוצאים פתרונות לסיכונים עוד בזמן הפיתוח של הכלי".
בשל העובדה שכמו מרבית העולם, גם ארה"ב נמצאת בשנת בחירות, המוצר החדש עורר חשש בקרב חוקרי דיסאינפורמציה רבים אשר העידו על הסכנה מהגידול בשימוש לרעה ביישומים המונעים בינה מלאכותית, בגלל התרבות תוכנות המסוגלות לשבט קולות אנושיים, ההופכות להיות זולות, קלות לשימוש וקשות למעקב.
בעקבות המודעות לסכנות האלו, OpenAI מסרה כי שותפים הבוחנים את Voice Engine הסכימו לכללים הכוללים דרישת הסכמה מפורשת ומודעת של כל אדם שקולו משוכפל באמצעות הכלי. כמו כן, החברה הוסיפה ואמרה שיש להבהיר לקהל המאזינים שהם מאזינים לקולות שנוצרו על ידי טכנולוגית בינה מלאכותית.
עוד ב-
מטעם OpenAI, נסמר: " החברה נוקטת גישה זהירה ומושכלת להפצה רחבה יותר (של התוכנה) בשל הפוטנציאל לשימוש לרעה בקול סינתטי. יישמנו סדרה של אמצעי בטיחות, כולל סימון מים כדי להתחקות אחר מקורו של כל אודיו שנוצר על ידי Voice Engine, כמו גם ניטור יזום של אופן השימוש בו".
הכתבות החמות
תגובות לכתבה(0):
תגובתך התקבלה ותפורסם בכפוף למדיניות המערכת.
תודה.
לתגובה חדשה
תודה.
לתגובה חדשה
תגובתך לא נשלחה בשל בעיית תקשורת, אנא נסה שנית.
חזור לתגובה
חזור לתגובה