ثمة ثورة تكنولوجية هائلة قد بدأت في المجال الطبي بفضل تكنولوجيا الروبوتات. ويمكن إرجاع تاريخ الروبوتات الطبية إلى الثمانينيات من القرن العشرين، عندما تم استخدام الروبوتات الميكانيكية لأول مرة تجريبيًا في البيئات الجراحية. بدأت هذه التكنولوجيا في النضج في التسعينيات، مع إدخال الروبوتات مثل Puma 560، والتي أثبتت فائدتها في تحديد المواقع الدقيقة لأخذ عينات مسحية من الدماغ البشرية.
لقد تم تطوير الروبوتات الطبية في البداية لتمكين الجراحين من العمل عن بعد أو بدقة محسنة على مرضاهم. وشهد مجال الروبوتات الطبية تطورات كبيرة في مختلف التخصصات الجراحية، بما في ذلك جراحة الأعصاب وجراحة العظام.
ويعد أكثر الروبوتات الطبية شهرة هو نظام دافنشي الجراحي، الذي تم تقديمه في عام 2000. وهو يسمح للجراحين بإجراء عمليات جراحية طفيفة التوغل مع تعزيز البراعة والدقة.
ويمكن متابعة تاريخ الروبوتات الطبية وتطورها في المقالات الأكاديمية والمجلات الطبية المتخصصة والمؤتمرات الخاصة بالروبوتات الطبية. وستستمر الروبوتات الطبية في التطور وستلعب دورًا متزايد الأهمية في مجال الرعاية الصحية، مما يؤدي إلى إحداث ثورة في العمليات الجراحية ورعاية المرضى.
ويثور التساؤل عن المسئولية القانونية والأخلاقية للروبوتات الطبية، وفي هذا البحث سوف نحاول الإجابة على هذا التساؤل وسوف نحاول فهم معني الروبوتات الطبية ثم نعرض لأنواع الروبوتات الطبية ثم نتحدث عن المسئولية القانونية والأخلاقية للروبوتات الطبية لفائدة الباحث القانوني في الوطن العربي.
أولا: مفهوم الروبوت الطبي
هناك جدال قائم بين العلماء واللغويين على حد سواء بشأن التعريف الدقيق للروبوت، فالبعض يقول بإطلاق هذه الصفة على كل آلة يُمكن للإنسان السيطرة عليها وتحريكها عن بعد، بينما لا يوافق البعض الآخر على هذا، وحجتهم أن تلك الآلات، على شاكلة السيارة أو الطائرة ذات التحكم عن بعد، لا يمكن اعتبارها روبوتا لعدم امتلاكها المقدرة على التفكير واتخاذ القرار بنفسها، ويورد هؤلاء مثالاً بأنه إذا كان باستطاعة تلك الآلة أن تتصرف وفق برنامج معد سلفًا بابتعادها عن حاجز خطوتين إلى الوراء والاتجاه نحو اليمين أو اليسار والاستمرار بالتقدم، فإن هذا يجعل من الممكن إطلاق صفة إنساله حقيقية عليها. ويتضح من هذا أن الفكرة الأساسية التي يتمسك بها أصحاب هذا الرأي هي أن الانسالة الحقيقية حسب اعتقاد البعض يجب أن تمتلك ذكاء اصطناعي وأن تكون لها القدرة على تمييز الأنماط والتعرف على النظم والاستدلال والاستنتاج.
والعلم الأساسي الذي تصنع وفقه الروبوتات هو علم الروبوتيك، وعلم الروبوتيك علم يهتم ببناء آلات المؤتمتة التي تستخدم لأداء مهمة معينة، ويعرف أيضاً بأنه تقاطع لأربعة علوم أساسية هي الرياضيات والهندسة الميكانيكية والمعلوماتية وأخيراً العلوم، ويقصد بها العلم أو المجال الذي يقوم الروبوت بخدمته.
والروبوت هو تطبيق برمجي مؤتمت يؤدي مهام متكررة ويتبع الروبوت تعليمات محددة ليحاكي السلوك البشري ولكنه يكون أسرع وأكثر دقة. ويمكن أن يعمل الروبوت أيضًا بشكل مستقل بدون تدخل بشري.
ويمكن تعريف الروبوت الطبي بأنه " هو روبوت يستخدم في العلوم الطبية. ويشمل ذلك الروبوتات الجراحية. ويوجد به أجهزة التحكم عن بعد."
ثانياً: أنواع الروبوتات الطبية
ثمة أنواع مختلفة للروبوتات الطبية تستخدم في مجال الرعاية الصحية و منها:-
- § الروبوتات الجراحية: تسمح هذه الروبوتات إما بإجراء العمليات الجراحية بدقة أفضل من الجراح البشري بدون مساعدة أو تسمح بإجراء عملية جراحية عن بعد حيث لا يتواجد الجراح البشري جسديًا مع المريض.
- § روبوتات إعادة التأهيل: تعمل على تسهيل ودعم حياة المرضى وكبار السن أو المصابين بخلل في أعضاء الجسم مما يؤثر على الحركة. تُستخدم هذه الروبوتات أيضًا في إعادة التأهيل والإجراءات ذات الصلة، مثل التدريب والعلاج.
- § روبوت التطهير: لديه القدرة على تطهير غرفة كاملة في دقائق معدودة، وذلك باستخدام الأشعة فوق البنفسجية النبضية بشكل عام. ويتم استخدامها لمكافحة مرض فيروس الإيبولا.
- § روبوتات المستشفيات: من خلال تخطيط مبرمج مسبقًا لبيئتها وأجهزة استشعار مدمجة، تقوم روبوتات المستشفيات بتوصيل الأدوية والوجبات والعينات حول المستشفيات.
- § الأطراف الاصطناعية الروبوتية: تركز على تزويد مرتديها بوظائف الأطراف الشبيهة بالحياة.
- § الروبوتات المختبرية: تم تصميم أنواع الروبوتات الموجودة في المختبرات خصيصًا لأتمتة العمليات أو مساعدة فنيي المختبر في إكمال المهام المتكررة.
ثالثا: التحديات القانونية والأخلاقية للروبوتات الطبية
تتعلق أخلاقيات الروبوت بالمشاكل الأخلاقية التي تحدث مع الروبوتات، مثل ما إذا كانت الروبوتات تشكل تهديدًا للبشر، وما إذا كانت بعض استخدامات الروبوتات تنطوي على مشكلات كما هو الحال في الرعاية الصحية.
وتطرح الروبوتات الطبية تحديات أخلاقية وقانونية مختلفة. بعض الاهتمامات الأساسية تشمل ما يلي:
1- سلامة المرضى ومسؤوليتهم: مع تزايد مشاركة الروبوتات الطبية في رعاية المرضى، هناك حاجة للتأكد من أنها آمنة وموثوقة. وأي خلل أو خطأ في عمل الروبوت يمكن أن يكون له عواقب وخيمة على المرضى، مما قد يؤدي إلى الإصابة أو حتى الوفاة. قد يكون تحديد المسؤولية في حالة وقوع مثل هذه الحوادث أمرًا صعبًا، لأنه قد يشمل أطرافًا متعددة، بما في ذلك الشركات المصنعة والمبرمجون والمشغلون ومقدمو الرعاية الصحية.
2- الموافقة المستنيرة واتخاذ القرار: غالبًا ما تُستخدم الروبوتات الطبية في الإجراءات الطبية الحرجة، مثل العمليات الجراحية. وفي مثل هذه الحالات، تصبح مسألة الموافقة المستنيرة حاسمة. وينبغي تزويد المرضى بالمعلومات الكافية حول قدرات الروبوت وقيوده ومخاطره المحتملة، حتى يتمكنوا من اتخاذ قرارات مستنيرة بشأن علاجهم. يعد ضمان قدرة المرضى على المشاركة بنشاط في عمليات صنع القرار التي تتضمن الروبوتات الطبية أمرًا مهمًا.
3- خصوصية البيانات وأمنها: تقوم الروبوتات الطبية والأنظمة ذات الصلة بتوليد واستخدام كميات هائلة من بيانات المرضى الحساسة. قد تتضمن هذه البيانات معلومات صحية شخصية، وتاريخًا طبيًا، وتفاصيل حساسة أخرى. يعد ضمان خصوصية هذه البيانات وأمانها أمرًا ضروريًا للحفاظ على ثقة المريض والامتثال للمتطلبات القانونية، مثل قانون قابلية نقل التأمين الصحي والمساءلة (HIPAA).[2]
4- الوصول العادل والقدرة على تحمل التكاليف: يمكن أن يساهم استخدام الروبوتات الطبية في ارتفاع تكاليف الرعاية الصحية. يعد ضمان الوصول العادل إلى تكنولوجيا الروبوتات الطبية ومعالجة أي فوارق قد تنشأ أمرًا بالغ الأهمية. بالإضافة إلى ذلك، ينبغي النظر في القدرة على تحمل التكاليف لمنع التكنولوجيا من أن تصبح حصرية لقطاعات معينة من المجتمع.
5- الاستقلالية وصنع القرار: تثير الاستقلالية المتزايدة للروبوتات الطبية تساؤلات حول دور المتخصصين في الرعاية الصحية والتأثير المحتمل على العلاقة بين الطبيب والمريض. يجب أن تكون القرارات التي تتخذها الروبوتات الطبية والتي تؤثر بشكل مباشر على رعاية المرضى شفافة ومفتوحة للرقابة من قبل المتخصصين في الرعاية الصحية. يعد الحفاظ على السيطرة البشرية والمساءلة في استخدام الروبوتات الطبية أمرًا مهمًا.
تتطلب معالجة هذه التحديات الأخلاقية والقانونية التعاون بين المهنيين الطبيين والتقنيين وصناع السياسات ولجان الأخلاقيات. ومن الضروري تحقيق التوازن بين الفوائد المحتملة للروبوتات الطبية وضمان الحفاظ على سلامة المرضى وخصوصيتهم والمعايير الأخلاقية.
الذكاء الاصطناعي والمسؤولية القانونية: ثلاثة نماذج لجابرييل هالفي
اقترح غابرييل هالي ثلاثة نماذج للمسؤولية الجنائية لكيانات الذكاء الاصطناعي: أولها نموذج المسؤولية عن ارتكا ب الأفعال عن طريق آخر (المشغل أو المستخدم)؛ وثانيها نموذج المسؤولية عن العواقب الطبيعية المحتملة؛ وثالثها نموذج المسؤولية المباشرة (نموذج المسؤولية عن العواقب الطبيعية المحتملة.[3]
يعتبر النموذج الأول أن الذكاء الاصطناعي لا يمتلك أي صفة إنسانية، وبالتالي ينفي إمكانية وجود الذكاء الاصطناعي كمرتكب جريمة ويُنظر إليه على أنه مشابه للأشخاص المحدودين العقلية مثل الطفل أو الشخص غير الكفء عقلًيا أو الشخص الذي يفتقر إلى حالة ذهنية إجرامية. أي أن كيان الذكاء الاصطناعي هو عميل بريء وهو مجرد أداة ً يستخدمها مرتكب الجريمة الحقيقي، وهو الذي يصمم الجريمة ويشكل العقل المدبر الحقيق ي وراء ها. على هذا النحو، يجب أن يكون الشخص الذي يقف وراء الذكاء الاصطناعي مسؤولاً عن سلوك الذكاء الاصطناع ي (الفعل الإجرامي)، على الرغم من أن العنصر الذات ي أو الداخل ي (القصد الجنائي) يتم تحديده من خلال الحالة العقلية لمرتكب الجريمة.
يفترض هذا النموذج أن الذكاء الاصطناعي غير قادر على التصرف من تلقاء نفسه ويتم التحكم فيه من قبل المبرمج أو المستخدم. تفترض هذه النماذج ني ة جزء من المبرمج/المستخدم.
النموذج الثاني: نموذج المسؤولية عن العواقب الطبيعية المحتملة
ويفترض النموذج الثاني أن مبرمج أو مستخدم كيان الذكاء الاصطناعي، رغم عدم برمجته أو استخدامه لغرض ارتكا ب جريمة معينة، قد يتعرض للمساءلة عن الجريمة التي ارتكبها كيان الذكاء الاصطناعي، إذا كانت الجريمة طبيعية ومحتملة. على الرغم من أن المبرمج أو المستخدم لم يكن على علم بارتكاب الجريمة حتى تم ارتكابها بالفعل، ولم يخطط لارتكاب أي جريمة ولم يشارك في ارتكاب الجريمة، إذا كان هناك دليل على أنه يمكنهم ويجب عليهم توقعها احتمال ارتكاب جرائم، ثم قد تتم محاكمتهم على هذه الجريمة.
على عكس النموذج الأول، لا يتطلب النموذج الثاني أي نية إجرامية من جانب المبرمج/ المستخدم. ويقترح مسؤولي ة المبرمج/المستخدم على أساس عدم بذل العناية الواجبة مما يؤدي إلى جريمة متوقعة (أي إ همال تطبيق كيان الذكاء الاصطناع ي مما يؤدي إلى جريمة).
النموذج الثالث: نموذج المسؤولية المباشرة
ويهدف النموذج الثالث إلى توفير إطار نظري للتكافؤ الوظيف يبين كيانا ت الذكاء الاصطناعي والبشر لأغراض المسؤولية الجنائية. ينبع منطق غابرييل هالي من فكرة أن المسؤولية الجنائية تنطوي فقط على استيفاء شرطين مختلفين: الفعل الإجرامي (العنصر الخارجي) والقصد الجنائي (العنصر الداخلي) وإذا تمكنت كيانات الذكاء الاصطناعي من الوفاء بهما، فستتبع ذلك المساءلة الجنائية.
يتطلب تطبيق النموذج الثالث الاعتراف بالذكاء الاصطناعي/ الروبوتات كشخص اعتباري منفصل. بدأت هذه العملية مؤخرًا بمنح المملكة العربية السعودية شخصية قانونية لصوفيا (روبوت يشبه الإنسان). سيلعب هذا النموذج دو ًرا حيويًا في المستقبل عندما تتبع الدول في جميع أنحاء العالم خطى المملكة العربية السعودية وتعترف بالروبوتات البشرية كشخصية قانونية.
المسئولية المدنية
فيما يتعلق بمسؤولية أنظمة الذكاء الاصطناعي عن أعمال الإهمال، فقد طبقت معظم الولايات القضائية في جميع أنحاء العالم مبدأ "المسؤولية الصارمة عن المنتج". وقد اعترف القضاء الهندي أيًضا بمبدأ المسؤولية الصارمة عن المنتج. في القانون، تُنسب الحقوق والواجبات إلى الأشخاص الاعتباريين، سواء الطبيعيين (مثل البشر) أو الاصطناعيين (مثل الشركات). اعتباًرا من اليوم، لم يتم الاعتراف بالروبوتات أو الآلات كأشخاص طبيعيين أو اعتباريين في الهند، وبالتالي لا يمكن تحميلهم المسؤولية بصفتهم الخاصة يتم الاعتراف بالروبوتات أو الآلات كأشخاص طبيعيين أو اعتباريين في الهند، وبالتالي لا يمكن تحميلهم المسؤولية بصفتهم الخاصة.
المسئولية الجنائية
من الممكن حدوث ضرر على صحة الإنسان في الحالات الت يتشارك فيها الروبوتات في الرعاية الصحية. وبما أن الروبوتات ليست أشخاصا طبيعيين، فسيتم تحديد المسؤولية في حالة الجرائم التي ترتكبها الروبوتات بنفس الطريقة التي يتم بها تحديد الجرائم في/من قبل الأشخاص الاعتباريين / الشركات أي تحديد الشخص الطبيعي المسؤول / المستفيدة من أعمال الروبوتات. في الهند وأغلبية الولايات لم تعترف بعد بالروبوتات كشخصية قانونية. نظرًا لأن لديهم القدرة على التصرف بمفردهم، في حالة الجرائم الت يرتكبها الروبوتات ت، لتحديد المسؤولية، فمن المقترح إنشاء شركا ت تجارية خصيًصا لاستخدام وكلاء البرمجيات/الروبوتات المستقلة
رابعاً: النتائج والتوصيات:
- تتم برمجة الذكاء الاصطناعي أو الروبوتات لمتابعة المهام والأهداف المعينة بشكل مستقل وبالتالي غير قادرة على متابعة المواقف غير المتوقعة والاستجابة لها والتي تؤدي إلى نتائج غير مرغوب فيها أو غير مشروعة. ومن ثم، قد يتحمل المطورون والمشغلون و/أو مستخدمو الذكاء الاصطناعي مسؤولية الإهمال أو عدم المهارة.
- في حالة الرعاية الصحية، حيث يتم استخدام الروبوتات من قبل المستشفيات و/أو الشركات والأشخاص الطبيعيين الذين يحصلون على فوائد مالية من خلال هذا الاستخدام للروبوتات فهم يتحملون المسؤولية عن العقوبات وقد يتم فرض عقوبات / جزاءات على الأشخاص الاعتباريين (المستشفيات والشركات وما إلى ذلك).
- وفي الدول التي تعترف بروبوتات الذكاء الاصطناعي كأشخاص اعتباريين، ينبغي تنفيذ نموذج المسؤولية المباشرة لجابرييل هالي. ومع ذلك، لا ينبغي أن يؤدي قبول هذا النموذج إلى التنازل الكامل عن مسؤولية المبرمج أو المستخدم لأن ذلك قد يؤدي إلى استخدام روبوتا ت الذكاء الاصطناع ي كدرع لارتكاب الجريمة. في مثل هذه الحالات، يجب ممارسة الحذر وتحمل كيان الذكاء الاصطناعي المسؤولية فقط عن الأفعال التي تنطوي على إرادة أو إرادة أو سيطرة كيان الذكاء الاصطناعي.
- يشكل الافتقار إلى التدريب الموحد والاعتمادات اللازمة للجراحة الروبوتية مخاطر محتملة على سلامة المرضى وكفاءة الجراح.
- تتطلب العمليات الجراحية بواسطة الروبوتات الموافقة المستنيرة لاعتبارات إضافية لضمان إدراك المرضى تمامًا لقدرات التكنولوجيا والمخاطر المحتملة.
- يجب وضع دليل للمبادئ التوجيهية لاستخدام الروبوتات في مجال الرعاية الصحية تتناول هذه المبادئ التوجيهية قضايا السلامة والخصوصية وعدم التمييز والمساءلة.
- ينبغي للحكومات أن تنفذ أطر تنظيمية قوية تضمن تصميم الروبوتات وتصنيعها واستخدامها بشكل آمن وأخلاقي.
الخاتمة
من الممكن أن يؤدي التقدم في مجال الروبوتات إلى تمكين الروبوتات من إجراء الاختبارات المعملية دون تدخل بشري، وإزالة الترسبات من الشرايين، وأخذ خزعات من الأنسجة، ومهاجمة الأورام السرطانية. وفي المستقبل، يمكن للروبوتات أيضًا تقديم الأدوية المستهدفة، وتوفير رعاية المرضى للمشاكل البسيطة، والتحدث إلى المرضى حول أعراضهم.
وبلا شك ستلعب التكنولوجيا دوراً كبيراً في تطوير مجال الرعاية الصحية، والذكاء الاصطناعي سيكون جزءاً من هذا، ولكن قبل ذلك يتعين أن يتم وضع إطار قانوني وتنظيمي لعمل الروبوتات في مجال الرعاية الصحية يضمن استخدامها بشكل آمن وأخلاقي.
ومازالت تشريعات الكثير من الدول العربية خالية من تنظيم عمل الروبوتات وتنظيم عمل الذكاء الاصطناعي بشكل عام، وهو ما يعني أن على الباحثين في مجال القانون متابعة التطورات الحادثة في مجال الروبوتات والذكاء الاصطناعي لاسيما الجوانب القانونية منها من أجل فهم أعمق يسهم في وضع تصورات قانونية تساهم في صياغة التشريعات والمبادئ التوجيهية التي سوف تضع ضوابط عمل الروبوتات الطبية.
المراجع
- A Research Roadmap for Medical and Healthcare Robotics, STAN. UNIV. (2008), archived at www.perma.cc
- Calo, R. (2012). Robots and Privacy. In P. Lin, G. Bekey, & K. Abney (Eds.), Robot Ethics:
- The Ethical and Social Implications of Robotics (1st ed., pp. 187-202). Cambridge, MA:MIT Press.
- Felzmann, H., Beyan, T., Ryan, M., & Beyan, O. (2015). Implementing an ethical approach to big data analytics in assistive robotics for elderly with dementia.
- Hallevy, Gabriel: The Matrix of Derivative Criminal Liability, p. 38. Springer, Heidelberg
- Isaac Asimov, I, Robot – ‗Runaround, ‘Street and Smith Publications, (1942), www.ttu.ee
- John Markoff, New Research Center Aims to Develop Second Generation of Surgical Robots, The New York Times, October 23, 2014, www.nytimes.com
- Jonathan Cohn, The Robot Will See You Now, The Atlantic, available at www.theatlantic.com (March 2013)
- Beasley, Ryan A. (12 August 2012). "Medical Robots: Current Systems and Research Directions". Journal of Robotics. 2012: 1–14. doi:10.1155/2012/401613.
- Schweikard, Achim & Ernst, Floris (October 2015). Medical Robotics. Springer Science -Business Media. doi:10.1007/978-3-319-22891-4. ISBN 978-3-319-22890-7. S2CID 32424869.
- N. G. Hockstein,م C. G. Gourin, R. A. Faust, and D. J. Terris. A history of robots: from science fiction to surgical robotics
- Dr. Vikrant Yadav, Robotics in Health Care: Who is Liable?