הנה הבלגן עם AI מתחיל - כתוב טקסט וקבל קול של מי שאתה רוצה, כולל שלך
Monday, 13-02-23, 23:22, מקור: Reuven Mansharoff ::: ::: נושא: AI בינה מלאכותית @ 27518
NoiseGPT - הפוטנציאל של דיפ-פייק ליצור חוסר אמון, חשדנות וזיוף מעורר חששות
צ'טבוט חדש, בדומה ל-ChatGPT, מסוגל להפוך טקסט לקולות של סלבריטי, ליצור זיופי מציאות (Deepfake) בסגנון קולות של מורגן פרידמן, ג'ורדן פיטרסון, דונלד טראמפ ועוד רבים.
המשתמש יכול אפילו לאמן את NoiseGPT לחקות את הקול שלו עצמו או את זה של חברים, בני משפחה או עמיתים לעבודה.
דמיינו לעצמכם הודעה קולית של יום הולדת שמח משחקן קולנוע או גיטריסט האהוב עליכם, או קול מהעבר של מי שכבר אינו בחיים, כמו ג'ון לנון או אלביס, אשר כביכול שותפים למידע האישי כמו תאריך ההולדת שלכם, שרק קרובי המשפחה הקרובים יודעים עליו.
NoiseGPT שוחרר באפליקצית המסרים טלגרם, ומאפשר למשתמשים לשלוח הודעות מדיה קולית לחברים, כאלה שנאמרו בקולות של ידוענים.
ראוי לציין שהנחיות כיצד לאמן את האפליקציה להשתמש בקול שלך יהיו זמינות באתר החברה בקרובֿ מה גם שכל יום הכלי למד ומכניס לבנק הדמויות שלו עוד ועוד ידוענים וכאלה.
האפליקציה יכולה לשמש כל סמארטפון שיכול להתקין את אפליקציית Telegram, מה שמגדיל את הפוטנציאל לאימוץ המוני, אשר בתורו ילמד את הבינה קולות מגוונים ביותר מצד המאמנים - המשתמשים למעשה.
מוזיקה?!
עבור תחום המוזיקה מדובר ביכולת שכבר החלה להכות שורשים בכלי בינה מלאכותית המסוגלים לגרום לכל זמר או זמרת מהווה והעבר שישירו משהו שאתה כתבת. בשילוב פייק-ווידאו-קליפ הנוצר גם הוא בידי בינה מלאכותית המסוגלת לקבל תמונה של הדמות וליצור סביבה וידאו קליפ בו הדמות תעשה מה שתכתיב לתסריט, ניתן כיום ׳להפיק׳ אלבומים חדשים לאמנים שכבר אינם איתנו, בסגנון ובסאונד שלהם.
כך גם לגרום לדמות מפורסמת להקריא לך סיפור לפני השינה, אך גם ניתן לדגום קרובים או בני משפחה שכבר לא איתנו (כמה שניות של דיבור וכמה צילומים), כך שימשיכו לדבר איתנו ואלינו ללא סוף... זה ממש דופק בדלת. היכונו.
מה הבעיה?
הפוטנציאל העתידי של יישומי בינה מלאכותית המסוגלים לחקות את הקול שלך, או של החברים שלך, או כל מי שאתה יכול לדגום מעט מקולו, מעלה חששות כמו, לדוגמה, האפשרות שילדים יחקו את קול הוריהם או של מבוגרים מול מסרים קוליים.
טכנית, המושג של זיוף עמוק (דיפ פייק) אינו חוקי בשום תחום שיפוט. עם זאת, הפוטנציאל של זיופי עומק כאלה להוליד חוסר אמון, חשדנות ומניפולציה הוא עניין של דאגה רצינית הדורשת פתרון.
מ-NoiseGPT נמסר שהאפליקציה תנסה למנוע הפרות של זכויות הקניין האישיות והרוחניות אותן מאפשרת טכנולוגיית Deepfake. בעת בחירת קולות של מפורסמים, כאשר המשתמש רוצה שהטקסט שלו כמו דמות ידועה, תהיה דרך להצביע על כך שהדמות אינה זו הנשמעת. ככה, בינתיים.
ההשלכות המשפטיות והחברתיות הרחבות יותר של טכנולוגיית Deepfake יכולות לנוע בין:
- הפרה של זכויות קניין רוחני - ניתן להשתמש בטכנולוגיית Deepfake כדי להתחזות למישהו שבבעלותו קניין רוחני, שעלול להפר את זכויותיו.
- הפרת זכויות אישיות — ניתן להשתמש בזיופים עמוקים ליצירת תוכן נצלני או פורנוגרפי המפר את הפרטיות והזכויות האישיות של אדם.
- פגיעה במוניטין — זיופים עמוקים עלולים להפיץ מידע כוזב ולפגוע במוניטין של אדם, שעלולות לגרום לתוצאות בחייו האישיים והמקצועיים.
- אבטחת מידע ופרטיות שנפגעו - Deepfakes יכול לסכן את הפרטיות ואבטחת הנתונים של אדם, ולהשאיר אותו חשוף לגניבת זהות ולצורות אחרות של פשיעה סייבר.
- התערבות באג'נדה הפוליטית — ניתן להשתמש בזיופים עמוקים כדי לתמרן את דעת הקהל, במיוחד בתקופות של מתח פוליטי מוגבר כמו בחירות.
- הפצת מידע מוטעה — ניתן להשתמש בזיופים עמוקים כדי להפיץ מידע שגוי וליצור חוסר אמון כללי במקורות חדשותיים, אנשים ומוסדות.
- חששות לאחריות - השימוש בזיופים עמוקים בשיווק וחומרי קידום מכירות אחרים, עלול לעורר חששות לאחריות אם הצרכנים מקבלים מידע מוטעה או מטעים אותם.
- איום על הביטחון הלאומי — זיופים עמוקים יכולים ליצור מתחים גיאופוליטיים ולהוות איום על הביטחון הלאומי אם הם משמשים להפצת מידע כוזב או לתמרן את דעת הקהל.
זיופים עמוקים הופכים ליותר ויותר מציאותיים וככל שהטכנולוגיה מתקדמת, תקשורת של וידאו ואודיו מקוונים (אונליין) הופכת לחשודה יותר ויותר. כאילו שספאם, רוגלות ונוזקות באימייל לא הספיקו לנו...
[Yahoo, סוכנויות הידיעות, noisegpt]
[Yahoo, סוכנויות הידיעות, noisegpt]