بسبب المخاطر الأمنية.. «سامسونج» تمنع موظفيها من استخدام أدوات الذكاء الاصطناعي داخل الشركة

وكالات

حظرت شركة “سامسونج” استخدام موظفيها لأدوات الذكاء الاصطناعي التوليدية الشهيرة مثل “ChatGPT”، بعد اكتشاف قيام موظفين بتحميل كود حساس على النظام الأساسي.

وأخطرت شركة “Suwon”، ومقرها كوريا الجنوبية، الموظفين في أحد أكبر أقسامها يوم الاثنين الماضي، بشأن السياسة الجديدة.

ووفقا للوثيقة، تشعر الشركة بالقلق من أن البيانات التي يتم إرسالها إلى منصات الذكاء الاصطناعي هذه بما في ذلك “Google Bard” و”Bing” يتم تخزينها على خوادم خارجية، مما يجعل من الصعب استردادها وحذفها، وقد ينتهي الأمر بالكشف عنها لمستخدمين آخرين.

وأجرت الشركة استبيانا أبريل الماضي حول استخدام أدوات الذكاء الاصطناعي داخليا، وقالت إن 65٪ من المشاركين يعتقدون أن مثل هذه الخدمات تشكل خطرا أمنيا. وفي وقت سابق من أبريل، سرب مهندسو “سامسونج” عن طريق الخطأ كود المصدر الداخلي عن طريق تحميله إلى “ChatGPT”.

وقالت “سامسونج” للموظفين: “الاهتمام بمنصات الذكاء الاصطناعي التوليدية مثل ChatGPT ينمو داخليا وخارجيا. وبينما يركز هذا الاهتمام على فائدة وكفاءة هذه المنصات، هناك أيضا مخاوف متزايدة بشأن المخاطر الأمنية التي يقدمها الذكاء الاصطناعي التوليدي”.

وتحظر قواعد “سامسونج” الجديدة استخدام أنظمة الذكاء الاصطناعي التوليدية على أجهزة الكمبيوتر والأجهزة اللوحية والهواتف المملوكة للشركة، وكذلك على شبكاتها الداخلية.

ولا تؤثر هذه القرارات على أجهزة الشركة المباعة للمستهلكين، مثل الهواتف الذكية التي تعمل بنظام “أندرويد” وأجهزة الكمبيوتر المحمولة التي تعمل بنظام “ويندوز”.

وطلبت “سامسونج” من الموظفين الذين يستخدمون “ChatGPT” والأدوات الأخرى على الأجهزة الشخصية، عدم إرسال أي معلومات متعلقة بالشركة أو بيانات شخصية يمكن أن تكشف عن ملكيتها الفكرية. وحذرت من أن انتهاك السياسات الجديدة قد يؤدي إلى الطرد.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *