recent
أخبار ساخنة

كل ما يخص الذكاء الاصطناعي

الصفحة الرئيسية

 الوصول إلى الذكاء الاصطناعي الجدير بالثقة

المتميز almutamayiz انضم إلى Transform 2021 للتعرف على أهم الموضوعات في الذكاء الاصطناعي والبيانات المؤسسية. يتعلم أكثر.

سيكون الذكاء الاصطناعي عاملاً أساسيًا لمساعدة البشرية على السفر إلى آفاق جديدة وحل المشكلات التي تبدو اليوم مستعصية على الحل. إنه يعزز الخبرة البشرية ، ويجعل التنبؤات أكثر دقة ، ويؤدي إلى أتمتة القرارات والعمليات ، ويحرر البشر للتركيز على الأعمال ذات القيمة الأعلى ، ويحسن كفاءتنا العامة.

لكن ثقة الجمهور في التكنولوجيا عند نقطة منخفضة ، وهناك سبب وجيه لذلك. على مدى السنوات العديدة الماضية ، رأينا العديد من الأمثلة على الذكاء الاصطناعي الذي يتخذ قرارات غير عادلة ، أو لا يقدم أي تفسير لقراراته ، أو التي يمكن اختراقها.

للوصول إلى الذكاء الاصطناعي الجدير بالثقة ، يتعين على المؤسسات حل هذه المشكلات بالاستثمارات على ثلاث جبهات: أولاً ، تحتاج إلى رعاية ثقافة تتبنى الذكاء الاصطناعي وتطوره بأمان. ثانيًا ، يحتاجون إلى إنشاء أدوات استقصائية لرؤية خوارزميات الصندوق الأسود. وثالثًا ، عليهم التأكد من أن استراتيجية الشركة تتضمن مبادئ قوية لإدارة البيانات.



الوصول إلى الذكاء الاصطناعي الجدير بالثقة

1. رعاية الثقافة

يعتمد الذكاء الاصطناعي الجدير بالثقة على أكثر من مجرد التصميم المسؤول للتكنولوجيا وتطويرها واستخدامها. كما أنه يعتمد على وجود ثقافة وهياكل تشغيلية تنظيمية صحيحة. على سبيل المثال ، أعربت العديد من الشركات التي قد تكون لديها مخاوف بشأن التحيز في بيانات التدريب الخاصة بها عن قلقها من أن بيئات العمل لديها لا تساعد على رعاية النساء والأقليات في رتبهم. هناك بالفعل علاقة مباشرة للغاية! للبدء والتفكير حقًا في كيفية إجراء هذا التحول الثقافي ، تحتاج المؤسسات إلى تحديد شكل الذكاء الاصطناعي المسؤول في وظيفتها ، ولماذا هو فريد ، وما هي التحديات المحددة.

لضمان الذكاء الاصطناعي العادل والشفاف ، يجب على المنظمات تجميع فرق عمل من أصحاب المصلحة من خلفيات وتخصصات مختلفة لتصميم نهجها. ستعمل هذه الطريقة على تقليل احتمالية التحيز الضمني في البيانات المستخدمة لإنشاء خوارزميات الذكاء الاصطناعي التي قد تؤدي إلى التمييز والعواقب الاجتماعية الأخرى.

يجب أن يضم أعضاء فريق العمل خبراء وقادة من مختلف المجالات الذين يمكنهم فهم وتوقع وتخفيف المشكلات ذات الصلة حسب الضرورة. يجب أن يكون لديهم الموارد اللازمة لتطوير واختبار وتوسيع نطاق تكنولوجيا الذكاء الاصطناعي بسرعة.

على سبيل المثال ، يمكن لنماذج التعلم الآلي لاتخاذ قرارات الائتمان أن تظهر تحيزًا بين الجنسين ، وتميز بشكل غير عادل ضد المقترضين إذا لم يتم التحكم فيها. يمكن لفريق العمل المسؤول للذكاء الاصطناعي طرح ورش عمل عن التفكير التصميمي لمساعدة المصممين والمطورين على التفكير في العواقب غير المقصودة لمثل هذا التطبيق وإيجاد الحلول. التفكير التصميمي هو أحد أسس نهج الذكاء الاصطناعي المسؤول اجتماعيًا.

لضمان أن يصبح هذا التفكير الجديد متأصلاً في ثقافة الشركة ، يجب على جميع أصحاب المصلحة من جميع أنحاء المؤسسة - من علماء البيانات ومديري العمليات إلى كبار مسؤولي التنوع والشمولية أن يلعبوا دورًا. تعد مكافحة التحيز وضمان الإنصاف تحديًا اجتماعيًا وتكنولوجيًا يتم حله عندما يبدأ الموظفون الذين قد لا يكونون معتادين على التعاون والعمل مع بعضهم البعض في القيام بذلك ، وتحديداً بشأن البيانات والتأثيرات التي يمكن أن تحدثها النماذج على الأشخاص المحرومين تاريخياً.

2. أدوات جديرة بالثقة

يجب على المنظمات البحث عن أدوات لمراقبة الشفافية والإنصاف وإمكانية الشرح والخصوصية وقوة نماذج الذكاء الاصطناعي الخاصة بهم. يمكن لهذه الأدوات أن توجه الفرق إلى مناطق المشكلة حتى يتمكنوا من اتخاذ إجراءات تصحيحية (مثل إدخال معايير الإنصاف في تدريب النموذج ثم التحقق من مخرجات النموذج).

فيما يلي بعض الأمثلة على أدوات التحقيق هذه:

هناك إصدارات من هذه الأدوات متاحة مجانًا عبر المصدر المفتوح وأخرى متاحة تجاريًا. عند اختيار هذه الأدوات ، من المهم أن تفكر أولاً في ما تحتاج إلى أن تقوم به الأداة بالفعل وما إذا كنت بحاجة إلى الأداة للعمل على أنظمة الإنتاج أو تلك التي لا تزال قيد التطوير. يجب عليك بعد ذلك تحديد نوع الدعم الذي تحتاجه وبأي سعر واتساع وعمق. أحد الاعتبارات الهامة هو ما إذا كانت الأدوات موثوقة ومرجعية من قبل لوحات المعايير العالمية.

3. تطوير البيانات وحوكمة الذكاء الاصطناعي

يجب أن تتمتع أي منظمة تنشر الذكاء الاصطناعي بحوكمة بيانات واضحة سارية المفعول. ويشمل ذلك بناء هيكل حوكمة (لجان ومواثيق ، وأدوار ومسؤوليات) بالإضافة إلى وضع سياسات وإجراءات لإدارة البيانات والنماذج. فيما يتعلق بالبشر والحوكمة الآلية ، يجب على المنظمات اعتماد أطر للحوار الصحي الذي يساعد في صياغة سياسة البيانات.

الشركات التي تعمل بمجال الذكاء الاصطناعي 

هذا كفرصة لتعزيز البيانات ومحو الأمية بالذكاء الاصطناعي في المنظمة. بالنسبة للصناعات شديدة التنظيم ، يمكن للمؤسسات العثور على شركاء تقنيين متخصصين يمكنهم أيضًا ضمان أن إطار عمل إدارة المخاطر النموذجي يفي بالمعايير الإشرافية.

هناك العشرات من مجالس إدارة الذكاء الاصطناعي حول العالم التي تعمل مع الصناعة من أجل المساعدة في وضع معايير للذكاء الاصطناعي. IEEE هو مثال واحد. IEEE هي أكبر منظمة مهنية تقنية مكرسة لتطوير التكنولوجيا لصالح البشرية. تقوم جمعية معايير IEEE ، وهي هيئة معترف بها عالميًا لوضع المعايير داخل IEEE ، بتطوير معايير الإجماع من خلال عملية مفتوحة تشرك الصناعة وتجمع مجتمعًا واسعًا من أصحاب المصلحة. يشجع عملها التقنيين على إعطاء الأولوية للاعتبارات الأخلاقية في إنشاء تقنيات مستقلة وذكية. يمكن أن تساعد هيئات المعايير الدولية هذه في توجيه مؤسستك لاعتماد المعايير المناسبة لك ولسوقك.

ماذا نستنتج 

هل ترغب في معرفة تصنيف مؤسستك عندما يتعلق الأمر بالثقافة والأدوات والحوكمة الجاهزة للذكاء الاصطناعي؟ يمكن أن تساعدك أدوات التقييم في تحديد مدى استعداد مؤسستك جيدًا لتوسيع نطاق الذكاء الاصطناعي بشكل أخلاقي على هذه الجبهات الثلاث.

لا يوجد دواء سحري لجعل مؤسستك مضيفًا مسؤولاً حقًا عن الذكاء الاصطناعي. يُقصد بالذكاء الاصطناعي زيادة عملياتك الحالية وتعزيزها ، ولا يمكن لنموذج التعلم العميق إلا أن يكون منفتحًا ومتنوعًا وشاملًا مثل الفريق الذي يقوم بتطويره.

Phaedra Boinodiris ، FRSA ، هي مستشارة تنفيذية في فريق Trust in AI في شركة IBM وتسعى حاليًا للحصول على درجة الدكتوراه في الذكاء الاصطناعي والأخلاق. ركزت على التضمين في التكنولوجيا منذ 1999 وهي عضو في Cognitive World Think Tank في مؤسسة AI.

VentureBeat

تتمثل مهمة VentureBeat في أن تكون ساحة المدينة الرقمية لصناع القرار التقنيين لاكتساب المعرفة حول التكنولوجيا التحويلية والمعاملات. يقدم موقعنا معلومات أساسية حول تقنيات واستراتيجيات البيانات لإرشادك وأنت تقود مؤسساتك. ندعوك لتصبح عضوًا في مجتمعنا ، للوصول إلى:

معلومات محدثة عن الموضوعات التي تهمك

نشراتنا الإخبارية

ميزات الشبكات والمزيد

google-playkhamsatmostaqltradent