Conference Media Center

Conference Media Center

Version No.2
  • AI

يشهد القطاع القانوني تحولاً جوهرياً نتيجة التطور المتسارع في تقنيات الذكاء الاصطناعي، ولا سيما الذكاء الاصطناعي التوليدي (Generative AI)، الذي أصبح قادراً على إنتاج النصوص وتحليل البيانات القانونية وصياغة المستندات بصورة شبه آلية.

وفي هذا السياق، بتاريخ ٦ مارس ٢٠٢٦، أصدرت وزارة القانون في سنغافورة دليلاً متخصصاً بعنوان Guide for Using Generative AI in the Legal Sector  بهدف وضع إطار إرشادي يضمن الاستخدام المسؤول والفعال لهذه التقنيات في الممارسة القانونية. 

ويهدف هذا الدليل إلى تحقيق توازن دقيق بين تعظيم الاستفادة من قدرات الذكاء الاصطناعي التوليدي وبين الحفاظ على الالتزامات المهنية والأخلاقية للممارسين القانونيين. ويستند الدليل إلى عدد من المبادرات التنظيمية في مجال حوكمة الذكاء الاصطناعي، من بينها إطار حوكمة الذكاء الاصطناعي التوليدي الصادر عن هيئة تطوير الإعلام والاتصالات في سنغافورة (IMDA) والاستراتيجية الوطنية للذكاء الاصطناعي. 

ويُلاحظ أن الدليل ذو طبيعة إرشادية غير ملزمة، إلا أنه يمثل مرجعاً عملياً مهماً للمحامين، والمستشارين القانونيين الداخليين، ومقدمي الخدمات القانونية البديلة، إضافة إلى مطوري أدوات الذكاء الاصطناعي المستخدمة في المجال القانوني. 

 

أولاً: تطور استخدام الذكاء الاصطناعي في الممارسة القانونية

يبين الدليل أن استخدام التكنولوجيا في المجال القانوني ليس ظاهرة جديدة، إذ بدأت التطبيقات التقنية في هذا المجال بأنظمة بسيطة تعتمد على قواعد محددة مسبقاً، مثل برامج إدارة المكاتب القانونية أو أدوات تحويل الصوت إلى نص. إلا أن التطورات الحديثة في التعلم الآلي (Machine Learning)  والشبكات العصبية العميقة (Deep Learning) أدت إلى ظهور جيل جديد من الأنظمة القادرة على تحليل المعلومات القانونية وإنتاج محتوى جديد. 

ويعد الذكاء الاصطناعي التوليدي مرحلة متقدمة في هذا التطور؛ إذ يتميز بقدرته على إنشاء محتوى جديد استناداً إلى أنماط مستخلصة من بيانات التدريب، بما في ذلك النصوص والصور والوسائط المتعددة. كما تعتمد العديد من هذه الأنظمة على النماذج اللغوية الكبيرة (Large Language Models – LLMs)  القادرة على توليد نصوص قانونية وتحليل الوثائق المعقدة. 

غير أن الدليل يشير إلى أن هذه النماذج، رغم قدرتها على إنتاج نصوص تبدو منطقية ومقنعة، لا تمتلك فهماً حقيقياً لمعنى المعلومات التي تنتجها، بل تعتمد على أنماط إحصائية في البيانات، مما قد يؤدي إلى أخطاء أو معلومات غير دقيقة تُعرف بظاهرة الهلوسة .(Hallucination) 


ثانياً: مجالات استخدام الذكاء الاصطناعي التوليدي في العمل القانوني

يعرض الدليل مجموعة واسعة من التطبيقات العملية للذكاء الاصطناعي في القطاع القانوني، والتي يمكن أن تسهم في تحسين الكفاءة التشغيلية وتسريع العمليات القانونية. وتشمل أبرز هذه التطبيقات ما يلي:


إدارة القضايا والمكاتب القانونية

يمكن للأنظمة المدعومة بالذكاء الاصطناعي إدارة جداول المواعيد، وتتبع الوقت المستغرق في القضايا، وإعداد الفواتير القانونية، بالإضافة إلى تنظيم بيانات العملاء ومتابعة سير العمل القانوني. 

البحث القانوني

تتيح أدوات الذكاء الاصطناعي البحث في قواعد البيانات القانونية باستخدام اللغة الطبيعية، وتحليل الأحكام القضائية والتشريعات، وتلخيص النصوص القانونية الطويلة، وهو ما يسهّل إعداد المذكرات القانونية واستراتيجيات التقاضي. 


مراجعة المستندات القانونية

تُستخدم تقنيات الذكاء الاصطناعي في تحليل كميات كبيرة من الوثائق، واستخراج المعلومات الجوهرية منها، وتحديد المستندات ذات الصلة في عمليات الاكتشاف الإلكتروني (e-discovery)  أو التحقيقات القانونية. 


تحليل العقود وإدارتها

يمكن للأنظمة الذكية مقارنة العقود مع نماذج معيارية، واكتشاف البنود غير المعتادة، وتحديد المخاطر القانونية، وتتبع الالتزامات والمواعيد التعاقدية. 


صياغة الوثائق القانونية

يستطيع الذكاء الاصطناعي التوليدي إعداد مسودات أولية للوثائق القانونية مثل المذكرات القضائية والعقود والسياسات الداخلية، مع إمكانية تعديل الأسلوب والصياغة وفق السياق القانوني المطلوب. 


ثالثاً: المبادئ الأساسية لاستخدام الذكاء الاصطناعي في العمل القانوني

يركز الدليل على ثلاثة مبادئ أساسية ينبغي مراعاتها عند استخدام الذكاء الاصطناعي التوليدي في الممارسة القانونية:

الالتزام بالأخلاقيات المهنية

يشدد الدليل على أن المسؤولية النهائية عن جودة العمل القانوني تظل ملقاة على عاتق المحامي أو المستشار القانوني، حتى في حال استخدام أدوات الذكاء الاصطناعي. وبالتالي يجب ممارسة الرقابة البشرية والتحقق من صحة المعلومات القانونية قبل الاعتماد عليها. 

كما يؤكد الدليل ضرورة تطوير الثقافة الرقمية القانونية (AI literacy) لدى الممارسين القانونيين لفهم قدرات هذه الأدوات وحدودها.


حماية السرية والبيانات القانونية

تعد السرية من المبادئ الجوهرية في العمل القانوني، ولذلك يحذر الدليل من المخاطر المرتبطة بمعالجة البيانات الحساسة عبر أدوات الذكاء الاصطناعي، خاصة تلك التي تعتمد على خدمات خارجية أو سحابية. 


ومن بين التدابير المقترحة في هذا السياق:

  • مراجعة سياسات الخصوصية الخاصة بمزودي خدمات الذكاء الاصطناعي.
  • استخدام أدوات توفر حماية مؤسسية للبيانات.
  • إزالة أو إخفاء المعلومات السرية قبل إدخالها في الأنظمة.
  • تطبيق ضوابط صارمة للتحكم في الوصول إلى البيانات.
  • الشفافية والإفصاح
يوصي الدليل بضرورة الإفصاح عن استخدام الذكاء الاصطناعي في الحالات التي قد تؤثر فيها هذه التقنية على مصالح العملاء أو على طبيعة الخدمات القانونية المقدمة. 

وقد يكون الإفصاح ضرورياً في الحالات التالية:

  • عندما يعتمد العمل القانوني بصورة جوهرية على مخرجات الذكاء الاصطناعي.
  • عندما يؤثر استخدام هذه الأدوات في تكلفة الخدمات القانونية.
  • عندما تنطوي معالجة البيانات على مخاطر تتعلق بالخصوصية أو نقل البيانات.
  • رابعاً: إطار تنفيذ الذكاء الاصطناعي في المؤسسات القانونية

يقترح الدليل نموذجاً عملياً لتنفيذ تقنيات الذكاء الاصطناعي في المؤسسات القانونية يتكون من خمس مراحل رئيسية:

  1. وضع إطار حوكمة للذكاء الاصطناعي يشمل السياسات الداخلية وآليات الرقابة.
  2. تحليل احتياجات المؤسسة القانونية وتحديد مجالات الاستخدام الأكثر فائدة.
  3. تقييم واختيار الأدوات التقنية المناسبة وفق معايير الأمان والكفاءة.
  4. تنفيذ النظام وتدريب المستخدمين على استخدامه بصورة مسؤولة.
  5. المراجعة المستمرة وتحسين الأداء لضمان الامتثال للمعايير المهنية والتنظيمية. 
خاتمة
يتضح من خلال هذا الدليل أن الذكاء الاصطناعي التوليدي يمثل فرصة استراتيجية لتطوير العمل القانوني وتحسين كفاءته، إلا أن استخدامه يتطلب إطاراً حوكميًا واضحاً يضمن احترام المبادئ المهنية الأساسية، وعلى رأسها الكفاءة المهنية، وسرية المعلومات، والشفافية تجاه العملاء.

ومن ثم، فإن التحدي الحقيقي لا يكمن في تبني هذه التكنولوجيا فحسب، بل في إدماجها بصورة مسؤولة ضمن الممارسة القانونية بحيث تعزز قدرات المحامين دون أن تحل محل حكمهم المهني أو استقلاليتهم القانونية.

 

Gallery

Mailing List

Mailing List