علوم و تكنولوجيا

أخلاقيات الذكاء الاصطناعي | فوائد | مخاطر أنظمة الذكاء الاصطناعي

أخلاقيات الروبوتات | البيانات الضخمة |الحرمان من الاستقلالية الفردية

يعد فهم فوائد الذكاء الاصطناعي ومخاطره وأخلاقياته وأمانه أمرًا أساسيًا لتطوير أنظمة ذكاء اصطناعي أفضل. أدى التقارب في توافر كمية هائلة من البيانات الضخمة ، وسرعة منصات الحوسبة السحابية وامتدادها ، وتقدم خوارزميات التعلم الآلي المتطورة إلى ظهور مجموعة من الابتكارات في مجال الذكاء الاصطناعي (AI). من الناحية النظرية ، يترجم الأثر المفيد لأنظمة الذكاء الاصطناعي على الحكومة إلى تحسين خدمات الرعاية الصحية والتعليم والنقل في المدن الذكية. تشمل التطبيقات الأخرى التي تستفيد من تنفيذ أنظمة الذكاء الاصطناعي في القطاع العام سلسلة التوريد الغذائي والطاقة والإدارة البيئية. في الواقع ، الفوائد التي تجلبها أنظمة الذكاء الاصطناعي للمجتمع كبيرة ، وكذلك التحديات والمخاوف. ينطوي منحنى تعلم التقنيات المتطورة على حسابات خاطئة وأخطاء تؤدي إلى آثار ضارة غير متوقعة.

الدحيح | أخلاقيات الذكاء الاصطناعي – فوائد ومخاطر أنظمة الذكاء الاصطناعي

أنظمة الذكاء الاصطناعي ومعالجة الأضرار

نحن نعيش في أوقات يكون فيها من الأهمية بمكان أن يتم التعرف على إمكانية حدوث ضرر في أنظمة الذكاء الاصطناعي ومعالجتها بسرعة. وبالتالي ، فإن تحديد المخاطر المحتملة التي تسببها أنظمة الذكاء الاصطناعي يعني أنه يجب اعتماد خطة تدابير لمواجهتها في أقرب وقت ممكن. لذلك ، يمكن لمنظمات القطاع العام توقع ومنع الأضرار المحتملة في المستقبل من خلال إنشاء ثقافة الابتكار المسؤول لتطوير وتنفيذ أنظمة الذكاء الاصطناعي الأخلاقية والعادلة والآمنة. ومع ذلك ، يجب على جميع المشاركين في تصميم وإنتاج ونشر مشاريع الذكاء الاصطناعي ، والتي تشمل علماء البيانات ومهندسي البيانات وخبراء المجال ومديري التسليم وقيادات الإدارات ، اعتبار أخلاقيات الذكاء الاصطناعي والسلامة من أولوياتها.

أخلاقيات الذكاء الاصطناعي وأخلاقيات الروبوتات

تشتمل أخلاقيات الذكاء الاصطناعي ، أو أخلاقيات الروبوتات ، على مجموعة من القيم والمبادئ والتقنيات التي تستخدم معايير مقبولة على نطاق واسع للصواب والخطأ لتوجيه السلوك الأخلاقي في تطوير ونشر تقنيات الذكاء الاصطناعي. تهتم أخلاقيات الروبوت ، والمعروفة أيضًا باسم أخلاقيات الروبوتات أو أخلاقيات الآلة ، بالقواعد التي يجب تطبيقها لضمان السلوك الأخلاقي للروبوتات وكذلك كيفية تصميم الروبوتات الأخلاقية. تتعامل أخلاقيات الروبوت مع المخاوف والمعضلات الأخلاقية ، مثل ما إذا كانت الروبوتات ستشكل تهديدًا للبشر على المدى الطويل ، أو ما إذا كان استخدام بعض الروبوتات ، مثل الروبوتات القاتلة في الحروب ، يمكن أن يصبح مشكلة للبشرية. يجب أن يضمن علماء الروبوتات أن الأنظمة المستقلة يمكن أن تظهر سلوكًا مقبولًا أخلاقياً في المواقف التي تتفاعل فيها الروبوتات وأنظمة الذكاء الاصطناعي والأنظمة المستقلة الأخرى مثل المركبات ذاتية القيادة مع البشر.

أخلاقيات الذكاء الاصطناعي والأضرار المحتملة التي تسببها أنظمة الذكاء الاصطناعي

أتمتة البيانات الضخمة

يجب أن تكون أخلاقيات الذكاء الاصطناعي وسلامته أولوية في تصميم أنظمة الذكاء الاصطناعي وتنفيذها. تظهر أخلاقيات الذكاء الاصطناعي لتجنب الأضرار الفردية والمجتمعية الناجمة عن سوء الاستخدام أو سوء الاستخدام أو سوء التصميم أو العواقب السلبية غير المقصودة لأنظمة الذكاء الاصطناعي. وفقًا للدكتور ديفيد ليزلي ، رئيس موضوع الأخلاقيات في برنامج السياسة العامة وزميل الأخلاقيات في معهد آلان تورينج في لندن ، إنجلترا ، تشمل الأضرار المحتملة التي تسببها أنظمة الذكاء الاصطناعي ما يلي:

أنظمة الذكاء الاصطناعي: التحيز والتمييز

يختار مصممو أنظمة الذكاء الاصطناعي الميزات والمقاييس وهياكل التحليلات للنماذج التي تتيح استخراج البيانات. وبالتالي ، يمكن للتقنيات القائمة على البيانات ، مثل الذكاء الاصطناعي ، أن تكرر الأفكار المسبقة وتحيزات مصممها. تقوم عينات البيانات بتدريب واختبار الأنظمة الحسابية. ومع ذلك ، يمكن أن يكونوا في كثير من الأحيان غير ممثلين بشكل كافٍ للسكان الذين يستخلصون منها الاستنتاجات ؛ وبالتالي ، خلق احتمالات النتائج المتحيزة والتمييزية بسبب خلل من البداية عندما يغذي المصمم البيانات في الأنظمة.

أنظمة الذكاء الاصطناعي: الحرمان من الاستقلالية الفردية والمطالبة والحقوق

في الماضي ، كانت أنظمة الذكاء الاصطناعي التي تعمل على أتمتة الوظائف المعرفية تُعزى حصريًا إلى وكلاء بشريين خاضعين للمساءلة. اليوم ، تتخذ أنظمة الذكاء الاصطناعي القرارات والتنبؤات والتصنيفات التي تؤثر على المواطنين. قد تنشأ مواقف معينة حيث يكون هؤلاء الأفراد غير قادرين على محاسبة الأطراف المسؤولة عن النتائج. أحد الاستجابات الأكثر شيوعًا من البشر لتبرير النتائج السلبية هو إلقاء اللوم على نظام الذكاء الاصطناعي ، مضيفًا أنه لا يوجد شيء يمكنهم فعله لتغيير النتيجة. شيء غير حقيقي. مثل هذه الاستجابة سخيفة تمامًا لأن أنظمة الذكاء الاصطناعي مصممة ومبرمجة من قبل مصمم بشري. لذلك ، الإنسان هو القادر على تصحيح وتغيير نتيجة غير مرضية. خذ على سبيل المثال حالة إصابات ، أو نتيجة سلبية مثل فجوة المساءلة ، والتي قد تضر بالاستقلالية وتنتهك حقوق الأفراد المتضررين.

أنظمة الذكاء الاصطناعي

أنظمة الذكاء الاصطناعي: نتائج غير شفافة أو غير قابلة للتفسير أو غير مبررة

في بعض الحالات ، قد تولد نماذج التعلم الآلي نتائجها من خلال العمل على ارتباطات عالية الأبعاد تتجاوز القدرات التفسيرية للتفكير البشري. هذه هي الحالات التي قد يظل فيها الأساس المنطقي للنتائج المُنتجة خوارزميًا والتي تؤثر بشكل مباشر على موضوعات القرار غامضًا بالنسبة لهؤلاء الأشخاص. في بعض حالات الاستخدام ، قد لا يكون هذا النقص في القابلية للتفسير سببًا للكثير من المتاعب. ومع ذلك ، في التطبيقات التي يمكن أن تحتوي البيانات المعالجة فيها على آثار للتمييز أو التحيز أو الظلم، قد يكون عدم وضوح النموذج مشكلة كبيرة.

أنظمة الذكاء الاصطناعي: انتهاكات الخصوصية

تشكل أنظمة الذكاء الاصطناعي تهديدات للخصوصية بطريقتين:
نتيجة عمليات التصميم والتطوير الخاصة بهم
نتيجة انتشارهم
تقع مشاريع الذكاء الاصطناعي على أسس هيكلة ومعالجة البيانات الضخمة. يتم جمع كميات هائلة من البيانات الشخصية ومعالجتها واستخدامها لتطوير تقنيات الذكاء الاصطناعي. في أغلب الأحيان ، يتم التقاط البيانات الضخمة واستخراجها دون الحصول على الموافقة المناسبة من صاحب البيانات الموضوعه. في كثير من الأحيان ، يكشف بعض استخدام البيانات الضخمة – أو الأماكن المعرضة للخطر – عن معلومات شخصية ، مما يهدد خصوصية الفرد. يمكن أن يستهدف نشر أنظمة الذكاء الاصطناعي موضوعات مالك البيانات أو توصيفها أو دفعها دون علمهم أو موافقتهم. هذا يعني أن أنظمة الذكاء الاصطناعي هذه تنتهك قدرة الأفراد على عيش حياة خاصة. يمكن أن يؤدي انتهاك الخصوصية إلى الإضرار بالحق في متابعة أهداف أو خطط حياة خالية من التأثير غير المختار.

أنظمة الذكاء الاصطناعي: تعزل وتفكك الاتصال الاجتماعي

إن قدرة أنظمة الذكاء الاصطناعي على تنظيم التجارب الفردية وتخصيص الخدمات الرقمية لها القدرة على تحسين حياة المستهلك وتقديم الخدمات. هذه فائدة إذا تم تنفيذها بشكل صحيح ، لكنها تأتي مع مخاطر محتملة. قد لا تكون هذه المخاطر مرئية أو تظهر على أنها مخاطر في البداية. ومع ذلك ، قد تؤدي الأتمتة المفرطة إلى تقليل التفاعل بين البشر ، ومعها ، لا يمكن حل المواقف الإشكالية على المستوى الفردي بعد الآن. قد يؤدي التخصيص المفرط الممكّن خوارزميًا إلى تحسين رضا العملاء ، ولكنه يحد من تعرضنا لآراء العالم المختلفة عن رؤيتنا ، وقد يؤدي ذلك إلى استقطاب العلاقات الاجتماعية.
منذ عهد الفيلسوف اليوناني أفلاطون ، بنت المجتمعات المنظمة جيدًا والمتماسكة علاقات الثقة الإنسانية والتعاطف والتفاهم المتبادل. نظرًا لأن تقنيات الذكاء الاصطناعي أصبحت أكثر انتشارًا ، فمن الأهمية بمكان أن تظل علاقات الثقة الإنسانية أو التعاطف أو التفاهم المتبادل سليمة.

أنظمة الذكاء الاصطناعي: نتائج غير موثوقة أو غير آمنة أو ذات جودة رديئة

يمكن أن تؤدي هذه النتائج أيضًا إلى تقويض ثقة الجمهور في الاستخدام المسؤول لتقنيات الذكاء الاصطناعي المفيدة للمجتمع. قد يكون تنفيذ وتوزيع أنظمة الذكاء الاصطناعي التي تنتج نتائج غير موثوقة أو غير آمنة أو ذات جودة رديئة نتيجة لإدارة البيانات غير المسؤولة ، أو عمليات الإنتاج التصميمية الإهمال ، أو ممارسات النشر المشكوك فيها. وبالتالي ، يمكن أن يؤدي ذلك بشكل مباشر إلى الإضرار برفاهية الأفراد وكذلك الإضرار بالصالح العام.يمكن أن تؤدي هذه النتائج أيضًا إلى تقويض ثقة الجمهور في الاستخدام المسؤول لتقنيات الذكاء الاصطناعي المفيدة للمجتمع. علاوة على ذلك ، يمكنهم خلق أوجه قصور ضارة من خلال تكريس الموارد المحدودة لتقنيات الذكاء الاصطناعي غير الفعالة أو حتى الضارة.

بواسطة
Find My Science
المصدر
interestingengineering.com

مقالات ذات صلة

زر الذهاب إلى الأعلى
Commit and stay the course Inspiration Words by Bob Proctor ملخص رواية “مئة عام من العزلة” لغابرييل غارسيا ماركيز ملخص رواية “الشمس المشرقة” لهاروكي موراكامي ملخص رواية “1984” لجورج أورويل