إذا سبق لك أن شاركت في اجتماع عبر منصة Zoom، فربما تكون قد لاحظت وجود مساعد افتراضي مثل «Otter.ai» يستمع إليك ويسجل كل كلمة تنطق بها. هذه الممارسة أصبحت شائعة بشكل متزايد في عالم العمل عن بعد. فهذه الأدوات توفر ميزات مفيدة مثل توليد النصوص وموجز الاجتماعات...
إذا سبق لك أن شاركت في اجتماع عبر منصة Zoom، فربما تكون قد لاحظت وجود مساعد افتراضي مثل «Otter.ai» يستمع إليك ويسجل كل كلمة تنطق بها. هذه الممارسة أصبحت شائعة بشكل متزايد في عالم العمل عن بعد. فهذه الأدوات توفر ميزات مفيدة مثل توليد النصوص وموجز الاجتماعات، ولكنها تثير تساؤلات حول الخصوصية وأمن البيانات، خاصة وأن الكثير من المستخدمين لا يعرفون كيف تعمل هذه الأدوات بالضبط وما هي المعلومات التي يتم جمعها عنهم.
«Otter.ai» وتسريب نص المحادثات السرية
قد لا تكون على دراية بأن المساعدين الافتراضيين مثل «Otter.ai» يمكنهم تسجيل كل ما يُقال خلال الاجتماعات وإرساله إلى جميع المشاركين، حتى بعد مغادرتهم. هذا يعني أن أي حديث سلبي عن زملائك، أو أي معلومات سرية، أو أي انتقاد لسياسات الشركة، يمكن أن يتم تسجيله وتوزيعه دون علمك. هذه الميزة، التي تبدو مفيدة في البداية، يمكن أن تتحول إلى سلاح ذو حدين، حيث قد تعرضك لمشاكل قانونية أو مهنية.
في تقرير لمجلة Fortune، أشارت إلى ما حدث مع أليكس بلزيريان، الذي تلقى نصًا كاملاً لمحادثة سرية أجراها حيث كان في اجتماع زوم «Zoom» مع شركة تمويل وتم استخدام المساعد الافتراضي «Otter.ai». وبشكل صادم، تلقى بيلزيريان نصًا بالبريد الإلكتروني يحتوي على تسجيل كامل لمحادثاته الخاصة، بما في ذلك تفاصيل حساسة للغاية عن عمله، والتي ناقشها مع زملائه بعد انتهاء الاجتماع الرسمي.
وأظهر النص المرسل إلى الباحث أليكس بيلزيريان تسريب المحادثة السرية له مع المستثمرين، حيث تم تسجيل مناقشاتهم حول «الإخفاقات الاستراتيجية للشركة»، كما صرح لصحيفة واشنطن بوست. على الرغم من اعتذار المستثمرين، قرر بيلزيريان إلغاء الصفقة.
حوادث متكررة
حالة أليكس بلزيريان ليست معزولة، بل هي جزء من نمط متكرر لإساءة فهم المستخدمين لقدرات أدوات الذكاء الاصطناعي مثل «Otter.ai». فبعد نشر بلزيريان لتجربته على منصة إكس، شارك العديد من المستخدمين قصصًا مشابهة. على سبيل المثال، ذكر دين يوليوس أن زوجته تعرضت لحادثة مماثلة خلال اجتماع عمل، حيث تم تسجيل المحادثة بأكملها وإرسالها إلى جميع المشاركين، حتى بعد انتهاء الاجتماع الرسمي.
أشار مستخدمون آخرون إلى أن هذه الحوادث قد تشكل تهديدًا خطيرًا على قطاع الرعاية الصحية، خاصة مع تزايد الاعتماد على العلاج عن بعد والتطبيب عن بعد. كما صرحت دانييل كيلفاس، الطبيبة والمستشارة الطبية في شركة “آي تي ميديكال”، لمجلة فورتشن: «هذا الأمر يمثل تحديًا كبيرًا لقطاع الرعاية الصحية، خاصة فيما يتعلق بحماية المعلومات الطبية الحساسة. فالأطباء يقلقون بشأن خصوصية البيانات الطبية، سواء كانت من مصادر مثل المذكرات الصوتية التي يولدها الذكاء الاصطناعي أو حتى من الأجهزة الطبية الذكية. السؤال المطروح هو: أين تذهب هذه البيانات؟».
كيف تمنع المساعد الافتراضي من التجسس عليك؟
رغم ذلك، أكد متحدث باسم منصة «Otter.ai» لـ مجلة فورتشن Fortune، أن المستخدم هو المسؤول الأول عن تجنب مثل هذه الحوادث المحرجة، مشيرًا إلى أن المستخدم يتمتع بالتحكم الكامل في إعدادات حسابه. كما أوصى بمواصلة طلب الموافقة قبل بدء التسجيل في أي اجتماع أو محادثة، وتوضيح استخدام «Otter.ai» للجميع لضمان الشفافية الكاملة. ودعا المستخدمين إلى مراجعة مركز المساعدة للحصول على مزيد من المعلومات حول كيفية إدارة إعداداتهم.
مشاركة المعلومات الحساسة بـ«طريقة غير مقصودة»
من جهة أخرى، بينما تسعى الشركات إلى الاستفادة من قدرات الذكاء الاصطناعي في زيادة الإنتاجية وتحسين سير العمل، فإن هذه الأدوات تثير مخاوف بشأن الخصوصية وأمن البيانات. على الرغم من أن هذه الأدوات توفر سجلات دقيقة للمحادثات، إلا أنها تفتقر إلى الفهم السياقي الذي يتمتع به البشر، مما قد يؤدي إلى مشاركة غير مقصودة للمعلومات الحساسة. كما يؤكد سوخ سوهال، كبير المستشارين في شركة «Affinity Response»، فإن «البشر هم الذين يمكّنون التكنولوجيا»، لذلك يجب أن يكون هناك توازن بين الاعتماد على الذكاء الاصطناعي والاعتراف بحدوده.
وأشارت هانا جونسون، نائب الرئيس الأول للاستراتيجية في رابطة صناعة تكنولوجيا الحوسبة (CompTIA)، إلى ضرورة فهم العاملين في المجال التقني للتكنولوجيات التي يستخدمونها. وقالت لمجلة Fortune: «إن الذكاء الاصطناعي يوفر لنا أدوات قوية، ولكن علينا أن نكون مدركين لحدوده وقدرته على التأثير في عملنا. فالتكنولوجيا هي أداة، وليس بديلاً عن المهارات البشرية الأساسية».
هل يتمتع المساعدون الافتراضيون الآخرون بميزات أمان؟
على غرار «Otter.ai»، يقدم «Copilot» من مايكروسوفت ميزة تسجيل الاجتماعات ونسخها. ومع ذلك، يفرض «Copilot» قيودًا إضافية على هذه الميزة. فلتتمكن من تسجيل اجتماع باستخدام «Copilot» ، يجب أن تكون مشاركًا فعليًا فيه أو الحصول على موافقة من المنظم، كما صرح متحدث باسم مايكروسوفت لمجلة فورتشن.
أوضح متحدث باسم مايكروسوفت أن تطبيق Teams يتضمن عدة طبقات أمان لحماية خصوصية المستخدمين خلال تسجيل الاجتماعات. فبالإضافة إلى إشعار جميع المشاركين ببدء التسجيل، يتيح التطبيق للمسؤولين تفعيل ميزة تتطلب موافقة صريحة من جميع المشاركين قبل بدء التسجيل. وحتى يحصل المستخدم على هذه الموافقة، يتم تعطيل ميكروفونه وكاميرته تلقائيًا. ومع ذلك، يشير لارس نيمان، كبير مسؤولي التسويق في شركة «CUDO Compute»، إلى أن هذه الإجراءات قد لا تكون كافية دائمًا، ويجب على المستخدمين توخي الحذر عند التعامل مع مساعدي الذكاء الاصطناعي.
وتابع: «يعالج Shape AI، هذه الثغرات فهو يتخذ نهجًا أكثر تحفظًا في التعامل مع مشاركة المعلومات. يضمن هذا المساعد الحفاظ على سيطرة صارمة على البيانات التي يتم مشاركتها ومتى يتم ذلك. ويرى نيمان أنه من الأفضل مقارنة هذا المساعد بموظف جديد، حيث يحتاج إلى الإشراف والتوجيه المستمرين. وبدلاً من منح الذكاء الاصطناعي صلاحيات واسعة، يجب علينا أن نتعامل معه بحذر ونراقب أعماله عن كثب».
اضف تعليق