“سدايا” تُصدر تقريرًا عن التحيز في أنظمة الذكاء الاصطناعي والتحديات التي تواجه تطوير وتبني هذه التقنيات المتقدمة

سدايا تُصدر تقريرًا عن التحيز في أنظمة الذكاء الاصطناعي والتحديات التي تواجه تطوير وتبني هذه التقنيات المتقدمة
سدايا تُصدر تقريرًا عن التحيز في أنظمة الذكاء الاصطناعي والتحديات التي تواجه تطوير وتبني هذه التقنيات المتقدمة

أصدرت الهيئة السعودية للبيانات والذكاء الاصطناعي “سدايا” تقريرًا متخصصًا عن “التحيز في أنظمة الذكاء الاصطناعي” بهدف تسليط الضوء على التحديات التي تواجه تطوير وتبني أنظمة الذكاء الاصطناعي في ظل توسع كثير من الدول والمنظمات والشركات العالمية في تفعيل تطبيقات الذكاء الاصطناعي بشكل مضطرد في عددٍ من القطاعات الحساسة والحيوية، وما رافق ذلك من قلق متنام من تسرّب التحيز إلى أنظمة الذكاء الاصطناعي لاسيما تلك المرتبطة باتخاذ القرار.

والتحيز في الذكاء الاصطناعي هو عبارة عن ميل غير عادل أو غير مقصود في مخرجات هذه الأنظمة وينشأ عن بيانات مُنحازة أو تصميم غير متوازن للخوارزميات، وقد يحدث في أنظمة الذكاء الاصطناعي بسبب التحيزات الإدراكية التي تؤدي إلى الانحراف عن التفكير العقلاني أو السلوك الطبيعي في اتخاذ القرار أو الحكم على الأشياء، وغالبًا ما تنبع من التصورات الذهنية أو الاختصارات العقلية التي يستخدمها العقل البشري لتبسيط وتسريع عمليات الفهم واتخاذ القرارات أو بسبب التحيزات التقنية التي تنشأ عن تصميم وبناء أنظمة الذكاء الاصطناعي وتطويرها وتنفيذها وتنبع من الجوانب الفنية للتقنية نفسها مثل: التحيز في القياس أو الخوارزميات التي قد تؤثر في عدالة أو دقة أنظمة الذكاء الاصطناعي.

وبذلت “سدايا” جهودًا كبيرة في تقليل التحيز في أنظمة الذكاء الاصطناعي من خلال تطوير معايير أخلاقية تضمن العدالة والشفافية وعدم التمييز، مع تحسين جودة مخرجات الذكاء الاصطناعي، ولضمان التزام تطبيقات الذكاء الاصطناعي بهذه المعايير، وأطلقت أداة متخصصة لقياس مدى الامتثال للمعايير الأخلاقية، مما يسهم في تعزيز استخدام الذكاء الاصطناعي بشكل مسؤول وعادل.

وفي إطار التعاون الدولي، عملت سدايا مع المنظمات الدولية المهتمة بأخلاقيات الذكاء الاصطناعي لضمان تطبيق أفضل المعايير العالمية لأخلاقيات الذكاء الاصطناعي، حيث أنشأت المملكة العربية السعودية ممثلة في “سدايا” مركزًا دوليًا لأبحاث وأخلاقيات الذكاء الاصطناعي (ICAIRE) في الرياض بالتعاون مع منظمة اليونسكو؛ بهدف تعزيز الأبحاث الأخلاقية في الذكاء الاصطناعي ودراسة الحلول الممكنة لمعالجة تحديات الاستخدام الأخلاقي لهذه التقنية على المستوى الدولي.

كما نظّمت سدايا القمة العالمية للذكاء الاصطناعي لأعوام (2021 و2022 و2024) تحت شعار “الذكاء الاصطناعي من أجل خير البشرية” بهدف التوعية ومناقشة التحديات المرتبطة بالتحيز وتعزيز تطبيقات عادلة وشفافة تخدم الإنسانية، ولم تقتصر “سدايا” على الجانب التنظيمي فحسب، بل انتقلت إلى التطبيق العملي، حيث اتخذت عدة تدابير للحد من التحيزات في الأنظمة التي تقوم على تطويرها، بدءًا من مرحلة جمع البيانات وضمان جودتها ودقتها وتنوعها وحتى مرحلة نشر النموذج ، مثل “عيناي” ونموذج الكشف عن سرطان الثدي ونموذج التنبؤ بخطر الإصابة بالسكتة الدماغية.

وحذر التقرير من أنه يمكن أن يدخل الخطأ البشري والتحيز وسوء التقدير في دورة حياة بناء أنظمة الذكاء الاصطناعي، ويؤدي إلى خلق تحيّزات في تلك الأنظمة بصورة مقصودة أو غير مقصودة، وهذه التحيزات قد تقع في المراحل الأولية لصياغة المشكلة وجمع البيانات واستكشافها إلى المراحل الحرجة كبناء النموذج والتنفيذ إلا أن فهم مصادرها وكيفية ظهورها ووجود سياسات وإجراءات وضوابط مدروسة وأدوات تقنية مساعدة يُمكن أن يساعد على تجنب كثير منها ويخفف من حدة آثارها.

وأشار التقرير إلى إمكانية أن تنشأ التحيزات من البيانات المستخدمة لتدريب الأنظمة أو الخوارزميات المستخدمة لمعالجة تلك البيانات أو حتى طريقة عرض النتائج على المستخدمين مما قد تؤدي إلى تكريس صورة نمطية سلبية تجاه أحد الفئات، داعيًا إلى مراقبة ومراجعة النماذج قيد التشغيل بشكل مستمر لضمان الالتزام بالسياسات الأخلاقية المعتمدة بما يساعد في الكشف عن التحيزات مبكرًا، وتخفيفها قبل استفحال ضررها والبقاء على اطلاع بالبحوث الصادرة في هذا المجال، واختيار الموردين الملتزمين بتطوير تطبيقات الذكاء الاصطناعي المسؤول.

وقدّم التقرير مجموعة من الحلول والتوصيات لمواجهة التحيز في الذكاء الاصطناعي، من بينها تطوير خوارزميات تتبنى مبادئ الشفافية والعدالة، وتحسين جودة البيانات من خلال ضمان تنوعها وتمثيلها لجميع الفئات، وزيادة الوعي بخطورة التحيز وتأثيره في المجتمعات لتحقيق التوازن والإنصاف، ووضع معايير وقواعد موحدة ومناسبة لتسمية البيانات لكي يتم تلافي عدم التوافق والاتساق في التسميات بين المسميين مع الاستعانة ببعض الأدوات الناضجة في هذا المجال مثل اتفاقية المسمين.

ودعا التقرير في ذلك الجانب إلى تنويع فريق العمل المسؤول عن تطوير ونشر أنظمة الذكاء الاصطناعي وشموليته، وصيانة البنية التحتية لأنظمة الذكاء الاصطناعي لضمان الحفاظ على كفاءة هذه الأنظمة ووقايتها من تسرب التحيزات إليها، والتأكد بشكل دوري من كونها تعمل بكفاءة إلى جانب اعتماد إجراءات للتخفيف من تحيز البيانات عند ملاحظتها، وإجراءات لحماية بيانات المستفيدين، وعدم نشر التطبيقات إلا بعد مراجعتها من فرق الحوكمة المتخصصة والمُدربة على البحث عن أنواع التحيزات في جميع دورات حياة بناء أنظمة الذكاء الاصطناعي والإبلاغ عن أي مخاوف عند توقعها.

ويمكن الاطلاع على التقرير من خلال زيارة الرابط التالي: https://2u.pw/z2VXywn4

المصدر: واس

كن في صدارة مكاتب المحاماة!

في (tech laws) نقدم خدمات تسويق قانوني متميزة تساعد مكاتب المحاماة في تحقيق التميز والنجاح. نستخدم أحدث أساليب التسويق القانوني لضمان تحقيق أفضل النتائج. سواء كنت تبحث عن زيادة الوعي بعلامتك التجارية، أو جذب المزيد من العملاء، أو تحسين تواجدك على الإنترنت، نحن هنا لخدمتك.

دعنا نساعدك في الوصول إلى جمهورك المستهدف وتحقيق أهدافك. اتصل بنا اليوم عبر الواتساب على: 0544466663 واحصل على باقة متكاملة من خدمات التسويق القانوني لمكاتب المحاماة.

شارك المحتوى عبر:

هذا المحتوى محمي