הכלי שנלחם בהפרת זכויות יוצרים בפלטפורמות ה-AI

על רקע הביקורת הגוברת בנוגע לשימוש ביצירות כחלק מאימון של מודלי בינה מלאכותית, קבוצה של חוקרים באוניברסיטת שיקגו בנו כלי שמנסה לבלבל את הפלטפורמות במטרה למנוע מהם שימוש ביצירות של יוצרים ללא אישור
 | 
telegram

מאז השקת פלטפורמות הבינה המלאכותית הפופולאריים, לפני קצת יותר משנה, סוגיית זכויות היוצרים עמדה עמדה בליבת הדיונים הציבוריים סביבה. כעת, כלי חדש שהושק לאחרונה מאפשר ליוצרים לפגום ביצירותיהם, באופן שימנע מהפלטפורמות לעשות בהם שימוש.

בתחילת השנה השיקו קבוצה של חוקרים באוניברסיטת שיקגו, כלי בשם Nightshade אשר משנה קלות תמונות, בצורה שכמעט ואינה נראית לעין האנושית. השינוי, נועד למנוע מפלטפורמות בינה מלאכותית לעשות ביצירות שימוש עתידי ואף "לבלבל" אותן. "מכונות, רואות רק מערך גדול של מספרים. אז Nightshade משנה אלפי פיקסלים - טיפה בים עבור תמונות סטנדרטיות המכילות מיליוני פיקסלים, אבל מספיק כדי להערים על המודל", מסביר ראש צוות המחקר באוניברסיטת שיקגו, שון שאן.

במאמר שעתיד לראות אור בחודש הבא, חושפים החוקרים כיצד הכלי בוחר באופן אוטומטי קונספט שבאמצעותו הוא יבלבל את המודל. כך למשל, הטמיעו החוקרים בתמונות העונות להגרה של "כלב", מערך של עיוותי פיקסלים שנועדו לגרום לפלטפורמות לקרוא אותן כ"חתול". לאחר שהחוקרים הזינו כ-1,000 תמונות כלבים "מורעלות" לתוך פלטפורמת בינה מלאכותית, הם ביקשו ממנה לייצר תמונה של כלב. ואכן, לטענת החוקרים המודל ייצר תוצר שרחוק מלהדמות לכלב.

כותרת ראשית

- כל הכותרות

עם זאת, העיוותים הממוקדים של הכלי אינם קבועים, והוא מחליט בכל מקרה לגופו איזה תפיסה חלופית הוא מבקש להטמיע בפלטפורמת הבינה המלאכותית. במקרים מסוימים, נדרשות רק 30 תמונות של הכלי כדי להרעיל את המודל בדרך זו.

בן ז'או, פרופסור למדעי המחשב המנהל את המעבדה של אוניברסיטת שיקגו שפיתחה את Nightshade, לא מצפה לקליטה המונית של הכלי באופן שעשוי לאיים על מחוללי התמונות. במקום זאת, הוא בוחר לראות בכלי "חנית" שיכולה להפוך כמה יישומים ממוקדים יותר לבלתי שמישים, במידה מספקת דיה כדי לאלץ חברות לשלם לאמנים שמשתמשים ביצירותיהם. "אם אתה יוצר, מכל סוג שהוא, אם אתה מצלם, למשל, ואתה לא בהכרח רוצה שהתמונות שלך יוזנו למודלי אימון, אז Nightshadeהוא משהו שאתה יכול לשקול," אמר ג'או.

השיח סביב הגנה על קניין רוחני בפלטפורמות הפופולאריות, מצטרף לשורה של חששות אתיים בנוגע לבינה מלאכותית, כולל בסוגיות של זיופים והתחזות. למרות ההכרה גוברת בתעשייה בנוגע לצורך באמצעי הגנה נוספים, ההתפתחות המהירה של הטכנולוגיה - כולל כלי טקסט לווידאו חדשים יותר כמו Sora של OpenAI - מדאיגה לא רק את היוצרים אלא גם את הרגולטורים. בעוד שפרויקט Nightshade ואחרים דומים לו מייצגים "מרד" נגד מודלים של בינה מלאכותית בהיעדר רגולציה משמעותית, מפתחי בינה מלאכותית צפויים לתקן את התוכניות שלהם כדי להתגונן מפני אמצעי נגד כאלה.

תגובות לכתבה(0):

התחבר לאתר

נותרו 55 תווים

נותרו 1000 תווים

הוסף תגובה

תגובתך התקבלה ותפורסם בכפוף למדיניות המערכת.
תודה.
לתגובה חדשה
תגובתך לא נשלחה בשל בעיית תקשורת, אנא נסה שנית.
חזור לתגובה
חיפוש ני"ע חיפוש כתבות