حذر سام ألتمان، الرئيس التنفيذي لشركة OpenAI، المستخدمين من أن محادثاتهم مع روبوت الدردشة الذكي ChatGPT ليست خاصة، وقد تُستخدم كأدلة في المحاكم أو في سياق إجراءات قانونية، في تحذير صريح يُعيد طرح إشكالية الخصوصية في عصر الذكاء الاصطناعي.
وأكد ألتمان في تصريحات حديثة أن المحادثات التي يجريها المستخدمون مع ChatGPT قد تخضع للمراجعة البشرية، وأن الشركة ملزمة بالاستجابة للطلبات القانونية الرسمية، مثل أوامر التفتيش أو الاستدعاءات القضائية، إذا ما وصلتها من جهات مختصة.
لا سرية مهنية مع الذكاء الاصطناعي
أبرز ألتمان نقطة جوهرية تتعلق بغياب الحماية القانونية التي تُمنح عادةً للعلاقة بين المحامي وموكله، أو الطبيب ومرضاه، أو المعالج النفسي ومريضه. فعلى عكس هذه العلاقات، لا يُعامل ChatGPT كطرف ملتزم بالسرية المهنية، مما يعني أن أي معلومة حساسة تُشارك معه — سواء كانت اعترافات شخصية، مشكلات قانونية، أو بيانات مالية — لا تُعتبر محمية قانونياً.
ويُعد هذا التحذير مهماً في ظل تزايد اعتماد الملايين حول العالم على الذكاء الاصطناعي للتحدث عن مشاعرهم، وطرح أسئلة حميمة، أو حتى طلب نصائح قانونية، دون إدراك كافٍ لخطورة مشاركة هذه المعلومات على منصات رقمية غير مشفرة بالكامل.
المحادثات تُستخدم لتحسين النظام
أوضح ألتمان أن المحادثات مع ChatGPT تُستخدم افتراضياً في تدريب النموذج وتحسين أدائه، إلا إذا قام المستخدم بإيقاف هذه الخاصية يدوياً من خلال إعدادات الحساب. وقد تتضمن هذه العملية مراجعة بعض المحادثات من قبل موظفين بشريين، بعد إزالة أية معرفات شخصية واضحة.
ورغم أن OpenAI تتيح خيار تعطيل “سجل المحادثات” (Chat History)، فإن الغالبية العظمى من المستخدمين لا يدركون أن هذه الخاصية تكون مفعّلة تلقائياً عند إنشاء الحساب. وبالتالي، فإن ما يُعتبر “محادثة خاصة” في ذهن المستخدم قد لا يكون كذلك فعلياً، ما لم يتم إيقاف الحفظ بشكل صريح.
محادثاتك قد تصبح أدلة في المحكمة
أثارت تصريحات ألتمان تساؤلات قانونية جادة حول إمكانية استخدام محادثات ChatGPT كأدلة في القضايا الجنائية أو المدنية. ففي حال صدور أمر قضائي رسمي، يمكن لشركة OpenAI تسليم بيانات المستخدمين، خصوصاً في الولايات المتحدة، حيث تخضع للقوانين الفيدرالية.
لكن الوضع يختلف من دولة إلى أخرى. في بعض الدول ذات الأنظمة القانونية الغامضة أو المتشددة، قد تكون بيانات المستخدمين عرضة للطلب من قبل الأجهزة الأمنية دون إجراءات قانونية شفافة، خاصة في غياب تشريعات واضحة تحمي البيانات الرقمية.
لا تطلب المشورة القانونية من ChatGPT
يحذر الخبراء القانونيون والتقنيون من استخدام ChatGPT في مناقشة قضايا حساسة مثل الطلاق، أو النزاعات العقارية، أو القضايا الجنائية. فحتى لو بدا الرد منسجماً، فإن المحادثة لا تُعتبر سراً مهنياً، ويمكن استدعاؤها في التحقيقات.
كما يُشير خبراء الخصوصية إلى أن غياب نظام التشفير من طرف إلى طرف (End-to-End Encryption) في ChatGPT يجعل البيانات أكثر عرضة للاختراق أو التسريب، خصوصاً إذا لم تُخزن وفق معايير أمنية صارمة.
نصيحة من رئيس OpenAI: لا تشارك معلومات حساسة
اختتم سام ألتمان تحذيره بنصيحة واضحة وحاسمة:
“لا تشارك أي معلومات شخصية أو حساسة مع ChatGPT، خاصة تلك التي لا ترغب في أن تُرى أو تُستخدم في سياقات أخرى”.
يُعد هذا التصريح إقراراً صريحاً من أعلى مسؤول في OpenAI بأن الثقة المطلقة في خصوصية أدوات الذكاء الاصطناعي ليست مضمونة، وأن المستخدمين مطالبون بالحذر الشديد عند التعامل مع هذه التقنيات، مهما بدت آمنة أو ودودة.
في عالم يتقدم بسرعة نحو الاعتماد على الذكاء الاصطناعي، تُذكّر تحذيرات كهذه بأن الخصوصية الرقمية لا تُمنح تلقائياً، بل يجب الدفاع عنها.
الكلمات المفتاحية: سام ألتمان ChatGPT خصوصية، محادثات ChatGPT المحاكم، OpenAI خصوصية البيانات، ChatGPT سرية، الذكاء الاصطناعي والقانون، حماية البيانات الرقمية