دیجیاتو نوشت: سم آلتمن، مدیرعامل OpenAI، در مصاحبه جدیدی به کاربران هشدار داده که صنعت هوش مصنوعی هنوز راهی برای محافظت کامل از حریم خصوصی آنها در گفتگوهای حساس پیدا نکرده است. به گفته او، هنگامی که از چتباتها مانند ChatGPT برای درمان یا دریافت حمایت احساسی استفاده میکنید، چیزی به نام محرمانگی بین پزشک و بیمار وجود ندارد.
او در قسمت جدید پادکست «This Past Weekend» در پاسخ به پرسشی درباره تعامل هوش مصنوعی با سیستمهای قانونی فعلی، گفته: « یکی از مشکلات اصلی نبود یک چارچوب حقوقی یا سیاستگذاری مشخص برای هوش مصنوعی، این است که برای گفتگوهای کاربران با این فناوری، محرمانگی قانونی وجود ندارد.»
ضعف ChatGPT در هنگام استفاده بهعنوان درمانگر
او در این رابطه میگوید: «مردم خصوصیترین مسائل زندگی خود را با ChatGPT در میان میگذارند. مردم و بهویژه افراد جوانتر از آن بهعنوان یک درمانگر و مربی زندگی استفاده میکنند و مشکلات عاطفی خود را مطرح میکنند. اما اگر با یک درمانگر، وکیل یا پزشکی [واقعی] در این رابطه صحبت کنیم، مکالمه شما تحت محافظت قانونی قرار دارد. ولی ما هنوز چنین چارچوبی برای ChatGPT نداریم.»
به گفته آلتمن، در صورت ثبت یک شکایت حقوقی، این موضوع میتواند به یک نگرانی جدی در زمینه حریم خصوصی کاربران تبدیل شود، چرا که درحالحاضر OpenAI از نظر قانونی موظف است محتوای این گفتگوها را در صورت نیاز ارائه کند.او در این بخش از سخنان خود گفته است: «اگر کاربری درباره موضوعی بسیار حساس با ChatGPT صحبت کند و سپس درگیر یک پرونده حقوقی شود، ممکن است ما از لحاظ قانونی موظف به ارائه آن اطلاعات شویم. بهنظر من این شرایط نگرانکننده است. مکالمات کاربران با چتباتها باید از همان سطح حریم خصوصی برخوردار باشد که در تعامل با پزشک یا درمانگر انتظار میرود.»
بهعنوان مثال، OpenAI هماکنون در پرونده نیویورکتایمز، درحال مبارزه با حکمی است که این شرکت را مجبور میکند مکالمات صدها میلیون کاربر ChatGPT در سراسر جهان (بهجز کاربران نسخه Enterprise) را ذخیره کند. OpenAI در بیانیهای در وبسایت خود اعلام کرده که به این حکم اعتراض کرده و آن را «زیادهخواهی» خوانده است.