העובד הותיק ב-ChatGPT באמירה דרמטית: ״לא להשתמש בתוכנה- אין הגנה על הפרטיות שלכם!״

סם אלטמן, מנכ"ל OpenAI – החברה שמאחורי ChatGPT, פונה לציבור באזהרה יוצאת דופן: השימוש הגובר בצ'אטבוט הפופולרי, בעיקר לשיחות אישיות ורגישיות, מסוכן לפרטיות המשתמשים. בראיון שנערך השבוע בארה"ב, אלטמן הדגיש את ההבדל המשמעותי בין שיחה עם איש מקצוע המחויב לחיסיון משפטי (כגון פסיכולוג, עו"ד או רופא) לבין שיחה עם בינה מלאכותית, בה אין שום הגנה משפטית על תוכן השיחה.

“אנשים מדברים עם ChatGPT על הדברים הכי אישיים בחיים שלהם”, אמר אלטמן, “בעיקר צעירים משתמשים בו כמאמן לחיים או כמטפל רגשי. הם פונים אליו עם דילמות זוגיות, התמודדויות רגשיות וחוויות הקשות ביותר – אבל המידע הזה לא נהנה מהגנת סודיות. למעשה, במקרי תביעה או הליכים משפטיים, OpenAI עלולה להידרש למסור את תוכן השיחות, בניגוד גמור למה שמקובל בין מטפל למטופל”.

אלטמן הוסיף כי היעדר מסגרת חוקית שמגינה על המשתמשים עלול להפוך לשימוש בבינה מלאכותית לסיכון לא צפוי. החברה עצמה כבר נדרשה לשמור שיחות של מאות מיליוני משתמשים בעקבות תביעה מול הניו יורק טיימס, למעט לקוחות עסקיים שמשתמשים בגרסת הפרימיום.

“אנחנו עדיין לא פיצחנו את האתגר הזה. הגיע הזמן למסגרת ברורה לעקרונות פרטיות בשיח עם בינה מלאכותית, ממש כמו שיש עם רופא או עורך דין”, אמר מנכ"ל OpenAI. הוא ציין שהחברה מבינה שהדבר מהווה מכשול משמעותי לשימוש בטכנולוגיה ככלי תומך נפשית או אישי, וקרא לרשויות ולרגולטורים להתעורר וליצור חקיקה מתאימה.

בשלב זה, האחריות נתונה בידי המשתמשים – “אני מבין לגמרי את החשש; עד שלא יהיה ברור משפטית מה קורה עם המידע, צריך לחשוב טוב-טוב לפני שחושפים בפניה סודות אישיים”, סיכם אלטמן.

הדברים של אלטמן מגיעים כשהבינה המלאכותית הופכת להיות חלק בלתי נפרד מהחיים של מיליונים, לא רק ככלי עבודה, אלא גם כמקום לשיחה, תמיכה נפשית והתייעצות אישית. כל עוד החוק לא מדביק את ההתפתחות הטכנולוגית, המשתמשים נקראים לנהוג באחריות – במיוחד כשמדובר בפרטים רגישים או אינטימיים.

אהבתם? שתפו!

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

כתבות נוספות

דילוג לתוכן