قوانين الروبوتات
قوانين الروبوتات هي أي مجموعة من القوانين أو القواعد أو المبادئ التي تهدف إلى أن تكون إطار أساسي لدعم سلوك الروبوتات المصممة للحصول على درجة من الاستقلالية. لا توجد روبوتات بهذا القدر من التعقيد حتى الآن، ولكن قد توقعتها الأفلام والخيال العلمي على نطاق واسع وهي موضوع بحث وتطوير نشط في مجالات الروبوتات والذكاء الاصطناعي.
أشهر مجموعة من القوانين هي المجموعة التي كتبها إسحق عظيموف في أربعينيات القرن العشرين، أو التي كتبت بناءً عليها، ولكن اقترح الباحثون في العقود التالية لذلك مجموعات أخرى من القوانين.
قوانين الروبوتية الثلاثة لإسحق عظيموف
[عدل]أشهر مجموعة من القوانين هي "قوانين الروبوتات الثلاثة" لإسحق عظيموف، وقد قدمها في قصته القصيرة "الهروب" عام 1942، على الرغم من أنها كانت متوقعة في بعض القصص السابقة. القوانين الثلاثة هي:
- لا يجوز للروبوت أن يؤذي إنسانًا، أو أن يسمح من خلال تقاعسه بأن يتعرض إنسان للأذى.
- يجب على الروبوت أن يطيع الأوامر الصادرة إليه من البشر إلا إذا كانت هذه الأوامر تتعارض مع القانون الأول.
- يجب على الروبوت حماية وجوده طالما أن هذه الحماية لا تتعارض مع القانون الأول أو الثاني.[1]
في قصة الصراع الحتمي تعمم الآلات القانون الأول ليعني:
- لا يجوز لأي آلة أن تؤذي البشرية، أو أن يسمح من خلال تقاعسها بأن تتعرض البشرية للأذى.
روجع هذا القانون في نهاية رواية الأساس والأرض، حيث قدم "القانون الصفري"، مع إعادة صياغة القوانين الثلاثة الأصلية لتصبح خاضعة له:
- لا يجوز للروبوت أن يؤذي البشرية، أو أن يسمح من خلال تقاعسه بأن تتعرض البشرية للأذى.
هناك تعديلات وتوسعات قائمة على هذا الإطار، واعتبارًا من عام 2024 لا تزال هذه القوانين مجرد "أداة خيالية".[2]
قوانين إضافية
[عدل]قدم مؤلفون غير عظيموف قوانين إضافية.
قدم القانون الرابع للروبوتات في رواية طريق إيكاروس (المعروفة أيضًا باسم رحلة إيكاروس) للكاتب ليوبين ديلوف عام 1974:
"يجب على الروبوت أن يثبت هويته كروبوت في جميع الحالات." ويوضح ديلوف سبب هذا القانون بقوله: "لقد أنهى القانون الأخير المحاولات المكلفة للمصممين الذين يسعون لجعل الروبوتات النفسية شبيهة بالبشر قدر الإمكان، وما قد يترتب على ذلك من سوء فهم" [3].
اقترح داريوس جيميلنياك بشكل أكثر رسمية قانونًا رابعًا للروبوتات في مقال نشر في IEEE Spectrum عام 2024: "يجب ألا يخدع الروبوت أو الذكاء الاصطناعي الإنسان بانتحال شخصية بشرية." [4][5][6][7][8]
قدم نيكولا كيساروسكي قانون خامس في قصته القصيرة "القانون الخامس للروبوتات"، وينص هذا القانون على: "يجب أن يعرف الروبوت أنه روبوت." وتدور الحبكة حول جريمة قتل يكشف فيها التحقيق الجنائي أن الضحية قُتلت بعناق من روبوت بشري الشكل لم يكن يدرك أنه روبوت،[9] وقد نُشرت مراجعة للقصة بقلم فالنتين ايفانوف في مجلة "البوابة" لمراجعة الخيال العلمي والفانتازيا.[10]
كتب هاري هاريسون قصة بعنوان القانون الرابع للروبوتات ضمن مختارات تكريم إسحق عظيموف "قصص أصدقاء المؤسسة" لعام 1986 . وينص هذا القانون الرابع على: "يجب على الروبوت أن يتكاثر، طالما أن هذا التكاثر لا يتعارض مع القانون الأول أو الثاني أو الثالث."
اقترح هوتان أشرفيان في عام 2013 قانونًا إضافيًا يتناول العلاقة بين الذكاء الاصطناعي والذكاء الاصطناعي الآخر أو العلاقة بين الروبوتات وبعضها، وهو يُعرف بقانون "AIonAI".[11] وينص هذا القانون السادس على: "يجب على جميع الروبوتات المجهزة بعقل وضمير بشريين أن تتعامل مع بعضها البعض بروح الأخوة."
مبادئ EPSRC / AHRC في مجال الروبوتات
[عدل]نشر مجلس أبحاث العلوم الهندسية والفيزيائية (EPSRC) ومجلس أبحاث الآداب والعلوم الإنسانية (AHRC) في المملكة المتحدة في عام 2011 مجموعة من خمسة مبادئ أخلاقية موجهة لمصممي الروبوتات ومطوريها ومستخدميها في العالم الحقيقي، إلى جانب سبع رسائل عالية المستوى تهدف إلى توجيه النقاش، وذلك استنادًا إلى ورشة بحثية عُقدت في سبتمبر 2010:
- يجب ألا يتم تصميم الروبوتات بشكل أساسي أو حصري لقتل البشر أو إيذائهم.
- البشر هم الكيانات المسؤولة قانونيًا، والروبوتات هي أدوات مصممة لتحقيق أهداف بشرية.
- يجب تصميم الروبوتات بطريقة تضمن سلامتها وأمنها.
- الروبوتات هي مجرد أدوات صناعية؛ لذلك يجب ألا تُصمم لاستغلال المستخدمين الضعفاء من خلال إثارة استجابات عاطفية أو التسبب في التعلق بها، كما يجب أن يكون من الممكن دائمًا التمييز بين الروبوت والإنسان.
- يجب أن يوجد دائمًا امكانية لتحديد من هو المسؤول قانونيًا عن أي روبوت.
الرسائل الموجهة للمجتمع:
- نؤمن أن الروبوتات لديها القدرة على تحقيق تأثير إيجابي هائل في المجتمع، ونريد تشجيع الأبحاث في مجال الروبوتات.
- تضر الممارسات السيئة في مجال الروبوتات بنا جميعًا.
- ستساعدنا معالجة المخاوف العامة الواضحة على إحراز تقدم.
- من المهم إظهار التزامنا كعلماء روبوتات بأفضل المعايير الممكنة في الممارسة.
- يجب أن نتعاون مع خبراء من تخصصات أخرى، بما في ذلك العلوم الاجتماعية، والقانون، والفلسفة، والفنون لفهم سياق وأثر أبحاثنا.
- يجب أن نضع في الاعتبار أخلاقيات الشفافية: هل هناك حدود لما يجب أن يكون متاحًا بشكل مفتوح؟
- عندما نرى تقارير صحفية خاطئة، نلتزم بأخذ الوقت الكافي للتواصل مع الصحفيين لتوضيح الأمور.
تُعتبر مبادئ EPSRC نقطة انطلاق مفيدة على نطاق واسع، وقد نظم توني بريسكو في عام 2016 ورشة عمل لمراجعة هذه المبادئ بهدف التمييز بين المبادئ الأخلاقية والقانونية.[14]
التطور القضائي
[عدل]بدأت بالفعل عملية تدوين مصطلحي شامل لتقييم التطورات التكنولوجية في صناعة الروبوتات، خاصة في الدول الآسيوية.[15] يمثل هذا التقدم إعادة تفسير معاصرة للقانون والأخلاقيات في مجال الروبوتات، وهو تفسير يتطلب إعادة التفكير في الأطر القانونية التقليدية.
تشمل هذه الأطر بشكل أساسي مسائل المسؤولية القانونية في القانون المدني والجنائي، حيث يتم البحث عن حلول قانونية جديدة تتناسب مع التطورات السريعة في الذكاء الاصطناعي والروبوتات.
قوانين ساتيا نادالا
[عدل]أجرى ساتيا نادالا الرئيس التنفيذي لشركة مايكروسوفت مقابلة مع مجلة سلايت في يونيو 2016، حيث تحدث عن المبادئ والأهداف التي يجب أن تأخذها الصناعة والمجتمع في الاعتبار عند مناقشة الذكاء الاصطناعي:[16][17]
- "يجب تصميم الذكاء الاصطناعي لمساعدة البشرية" – أي أنه يجب احترام استقلالية الإنسان.
- "يجب أن يكون الذكاء الاصطناعي شفافًا" – أي يجب أن يتمكن البشر من معرفة كيفية عمله وفهم آلياته.
- "يجب أن يعزز الذكاء الاصطناعي الكفاءة دون المساس بمنزلة الإنسان."
- "يجب تصميم الذكاء الاصطناعي ليحترم الخصوصية بذكاء" – أي أن يكتسب الثقة من خلال حماية المعلومات.
- "يجب أن يتحمل الذكاء الاصطناعي المسؤولية الخوارزمية" – بحيث يتمكن البشر من تصحيح الأضرار غير المقصودة.
- "يجب أن يحمي الذكاء الاصطناعي من التحيز" – بحيث لا يمارس التمييز ضد الأشخاص.
قوانين تيلدن
[عدل]مارك دبليو تيلدن هو فيزيائي متخصص في الروبوتات وكان رائدًا في تطوير الروبوتات البسيطة.[18] وضع ثلاثة مبادئ أساسية لتوجيه تصرفات الروبوتات:[18][19][20]
- يجب على الروبوت حماية وجوده بأي ثمن.
- يجب على الروبوت الحصول على مصدر طاقة خاص به والحفاظ عليه.
- يجب على الروبوت البحث باستمرار عن مصادر طاقة أفضل.
ما يميز هذه القواعد هو أنها تعكس في جوهرها قوانين الحياة البرية، مما يشير إلى أن تيلدن كان يسعى إلى "تطوير نوع من السيليكون ليصبح لديه إحساس، ولكن مع التحكم الكامل في المواصفات، ليكون كيانًا مختلفًا تمامًا، ليس حيوانًا أو نباتًا".[21]
مراجع
[عدل]- ^ Asimov، Isaac (1950). I, Robot.
- ^ ا ب Stewart، Jon (3 أكتوبر 2011). "Ready for the robot revolution?". بي بي سي نيوز. مؤرشف من الأصل في 2024-11-26. اطلع عليه بتاريخ 2011-10-03.
- ^ Dilov، Lyuben (aka Lyubin, Luben or Liuben) (2002). Пътят на Икар. Захари Стоянов. ISBN:978-954-739-338-7.
{{استشهاد بكتاب}}
: صيانة الاستشهاد: أسماء متعددة: قائمة المؤلفين (link) - ^ "We Need a Fourth Law of Robotics for AI - IEEE Spectrum". spectrum.ieee.org (بالإنجليزية). Archived from the original on 2025-01-26. Retrieved 2025-02-03.
- ^ "A Fourth Law of Robotics | Berkman Klein Center". cyber.harvard.edu (بالإنجليزية). 24 Jan 2025. Retrieved 2025-02-03.
- ^ "Ki kell egészíteni Asimov robotikai törvényeit az AI miatt". Blikk (بالمجرية). 15 Jan 2025. Archived from the original on 2025-01-27. Retrieved 2025-02-03.
- ^ Tecnológica, Site Inovação (21 Jan 2025). "Leis da Robótica de Asimov precisam de atualização para IA". Site Inovação Tecnológica (بالبرتغالية). Archived from the original on 2025-01-27. Retrieved 2025-02-03.
- ^ Jaśkowiak، Piotr (1 فبراير 2025). "Asimovowi zabrakło wyobraźni. Potrzebujemy Czwartego Prawa Robotyki". Radio TokFM. مؤرشف من الأصل في 2025-02-03.
- ^ Кесаровски، Никола (1983). Петият закон. Отечество.
- ^ Lawful Little Country: The Bulgarian Laws of Robotics | The Portal
- ^ Ashrafian، Hutan (2014). "AIonAI: A Humanitarian Law of Artificial Intelligence and Robotics". Science and Engineering Ethics. ج. 21 ع. 1: 29–40. DOI:10.1007/s11948-013-9513-9. PMID:24414678. S2CID:2821971.
- ^ "Principles of robotics: Regulating Robots in the Real World". Engineering and Physical Sciences Research Council. اطلع عليه بتاريخ 2011-10-03.
- ^ Winfield، Alan. "Five roboethical principles – for humans". نيو ساينتست. اطلع عليه بتاريخ 2011-10-03.
- ^ Müller, Vincent C. (2017). "Legal vs. ethical obligations – a comment on the EPSRC's principles for robotics". Connection Science. ج. 29 ع. 2: 137–141. Bibcode:2017ConSc..29..137M. DOI:10.1080/09540091.2016.1276516. S2CID:19080722. مؤرشف من الأصل في 2024-08-09.
- ^ bcc.co.uk: Robot age poses ethical dilemma. Link نسخة محفوظة 2025-01-20 على موقع واي باك مشين.
- ^ Nadella، Satya (28 يونيو 2016). "The Partnership of the Future". Slate. ISSN:1091-2339. مؤرشف من الأصل في 2018-10-23. اطلع عليه بتاريخ 2016-06-30.
- ^ Vincent، James (29 يونيو 2016). "Satya Nadella's rules for AI are more boring (and relevant) than Asimov's Three Laws". ذا فيرج. فوكس ميديا. اطلع عليه بتاريخ 2016-06-30.
- ^ ا ب Hapgood، Fred (سبتمبر 1994). "Chaotic Robotics". Wired. ج. 2 رقم 9. مؤرشف من الأصل في 2012-11-08.
- ^ Ashley Dunn. "Machine Intelligence, Part II: From Bumper Cars to Electronic Minds" نيويورك تايمز 5 June 1996. Retrieved 26 July 2009. نسخة محفوظة 2016-06-03 على موقع واي باك مشين.
- ^ makezine.com: A Beginner's Guide to BEAM (Most of the article is subscription-only content.)
- ^ Hapgood، Fred (سبتمبر 1994). "Chaotic Robotics (continued)". Wired. ج. 2 رقم 9. مؤرشف من الأصل في 2012-11-08.