هوش مصنوعی قابل توضیح یا مدیریت هوش مصنوعی

سازمان‌هایی که چارچوبی برای توضیح‌ پذیری هوش مصنوعی ایجاد می‌کنند و ابزارهای توانمند مناسب را به دست می‌آورند، در موقعیت بهتری قرار خواهند گرفت تا ارزش کامل یادگیری عمیق و سایر پیشرفت‌های هوش مصنوعی را دریافت کنند. ما به سازمان‌ها پیشنهاد می‌کنیم که با گنجاندن توضیح ‌پذیری به عنوان یکی از اصول کلیدی در دستور العمل‌های توسعه‌ی هوش مصنوعی شروع کنند. سپس سازمان‌ها می‌توانند این اصل را با ایجاد یک کمیته مدیریت هوش مصنوعی برای تنظیم استانداردها و راهنمایی‌ها برای تیم‌های توسعه هوش مصنوعی، از جمله دستور العمل‌هایی برای فرآیندهای بررسی مورد خاص، و با سرمایه‌ گذاری در استعداد، فناوری، تحقیق و آموزش مناسب، عملیاتی کنند.

در مقاله‌ی پیشین توضیح پذیری هوش مصنوعی برای کسب و کارها را شرح دادیم و بیان شد، چرا کسب و کارها به هوش مصنوعی قابل توضیح نیاز دارند. حال در این مقاله به این می‌پردازیم که کسب و کارها می‌توانند هوش مصنوعی را برای خود قابل توضیح کنند و بتوانند پیش از رسیدن به بحران آن را به فرصت تبدیل کنند.

یک کمیته مدیریت هوش مصنوعی برای هدایت تیم‌های توسعه هوش مصنوعی ایجاد کنید.

ایجاد یک کمیته مدیریت هوش مصنوعی شامل استخدام اعضای آن و تعیین محدوده کار است. توضیح‌ پذیری و ارزیابی ریسک موارد استفاده از هوش مصنوعی ممکن است پیچیده باشد، و به درک هدف تجاری، کاربران مورد نظر، فناوری و هرگونه الزامات قانونی قابل اجرا نیاز داشته باشد. به همین دلیل، سازمان‌ها می‌خواهند مجموعه‌ای متقابل از متخصصان با تجربه، از جمله رهبران کسب و کار، کارشناسان فنی و متخصصان حقوقی و ریسک را تشکیل دهند. ارائه دیدگاه‌های مختلف در داخل و خارج نیز می‌تواند به شرکت کمک کند تا آزمایش کند که آیا توضیحات ارائه شده برای پشتیبانی از یک مدل هوش مصنوعی برای مخاطبان مختلف بصری و موثر هستند یا خیر.

یکی از وظایف کلیدی این کمیته تعیین استانداردهایی برای قابلیت توضیح هوش مصنوعی خواهد بود. به عنوان بخشی از فرآیند تنظیم استانداردها، کمیته‌های مدیریتی مؤثر هوش مصنوعی اغلب یک طبقه‌ بندی ریسک ایجاد می‌کنند که می‌تواند برای طبقه‌ بندی حساسیت موارد مختلف استفاده از هوش مصنوعی استفاده شود. طبقه بندی به راهنمایی‌هایی مرتبط است که انتظارات و استانداردها را با توجه به موارد استفاده مختلف مشخص می‌کند. به عنوان نمونه، آیا توضیحی برای مطابقت با الزامات نظارتی ضروری است یا هدف صرفاً ارائه یک نمای کلی از عملکرد برای کمک به پذیرش است؟ طبقه بندی همچنین روشن می‌کند که چه زمانی ممکن است تشدید به هیئت بازبینی یا قانونی مورد نیاز باشد.

از آن جایی که هر مورد استفاده از هوش مصنوعی می‌تواند مجموعه متفاوتی از خطرات و الزامات قانونی مرتبط با قابلیت توضیح را ارائه دهد، سازمان‌ها باید فرآیندی را برای تیم‌های توسعه مدل ایجاد کنند تا هر مورد استفاده را ارزیابی کنند. این فرآیند سازمان را برای مدیریت این خطرات و گرفتن ارزش از هوش مصنوعی بهتر موقعیت می‌دهد. ردیابی نتیجه این ارزیابی‌ها در یک فهرست مرکزی کمک می‌کند تا اطمینان حاصل شود که سازمان می‌تواند استفاده از سیستم‌های هوش مصنوعی را برای انطباق با قانون و پایبندی به اصول هوش مصنوعی نظارت کند.

به عنوان بخشی از فرآیند بررسی، تیم‌ها باید بر اساس ارزش بالقوه ناشی از، به عنوان مثال، اعتماد، پذیرش یا بهره وری بیشتر، فراتر از الزامات توضیح پذیری اولیه بروند یا خیر. در برخی موارد، ممکن است یک مبادله بین توضیح پذیری و دقت وجود داشته باشد. برای مثال، ساده ‌سازی مکانیک‌های یک مدل هوش مصنوعی ممکن است اعتماد کاربر را بهبود بخشد، اما در برخی – نه همه – موارد، تغییر ممکن است مدل را دقیق‌تر کند. هنگامی که معاوضه وجود دارد، تیم ها باید ملاحظات رقابتی، از جمله هرگونه الزامات نظارتی را بسنجید و در صورت لزوم به رهبری افزایش دهند.

ممکن است تیم‌ها بتوانند خودشان به این مبادلات بپردازند. گاهی اوقات آنها می‌توانند با ردیابی عملکرد مدل و الگوهای متمایز، عواملی را که منجر به نتایج پیش بینی کننده برای مدل‌های پیشرفته هوش مصنوعی می‌شوند، مهندسی معکوس کنند. سپس می‌توانند سعی کنند مدل پیچیده را با استفاده از روش‌های آماری ساده‌تر و درک بهتر مانند رگرسیون لجستیک تکرار کنند. در برخی موارد، نتیجه یک مدل با کارایی یکسان با خروجی‌هایی است که ذاتا قابل توضیح هستند.

روی استعدادهای مناسب، فناوری قابل توضیح، تحقیق و آموزش سرمایه گذاری کنید.

سرعت سریع تغییرات فنی و قانونی در حوزه توضیح ‌پذیری، استخدام استعدادهای مناسب، سرمایه‌ گذاری در مجموعه‌ای از ابزارهای مناسب، مشارکت در تحقیقات فعال و انجام آموزش‌های مداوم را برای شرکت‌ها ضروری می‌کند.

سازمان‌های با عملکرد بالا یک استراتژی استعداد برای حمایت از حکمرانی هوش مصنوعی در سراسر شرکت توسعه می‌دهند. این شرکت‌ها به دنبال حفظ همکاران حقوقی و ریسکی هستند که می‌توانند به طور فعال و معنی‌دار با کسب‌وکار و فن‌آوران تعامل داشته باشند تا قوانین قابل اجرا را دنبال کنند، انتظارات مصرف ‌کننده را برآورده کنند و محصولات اصلی «مطمئن با آینده» (شامل ویژگی‌ها و مجموعه‌های داده) را با تکامل قانون انجام دهند. به طور مشابه، شرکت‌ها برای استخدام فن‌آورانی آشنا به مسائل حقوقی یا متمرکز بر اخلاق فناوری به خوبی خدمت می‌کنند.

سرمایه ‌گذاری در فناوری‌های توضیح ‌پذیر باید با هدف دستیابی به ابزارهای مناسب برای برآوردن نیازهای شناسایی ‌شده توسط تیم‌های توسعه در طول فرآیند بررسی باشد. برای نمونه، ابزارهای پیشرفته‌تر ممکن است توضیحی قوی در زمینه‌ای ارائه دهند که در غیر این صورت برای کسب آن‌ها به تیم‌هایی نیاز است که در نهایت دقت را قربانی می‌کنند. اگرچه هزینه اولیه راه‌حل‌های سفارشی ممکن است بیشتر باشد، اما گاهی اوقات در دراز مدت جواب می‌دهد، زیرا می‌توانند زمینه‌ای را که مدل در آن استقرار می‌یابد، از جمله کاربران مورد نظر و هرگونه الزامات قانونی یا نظارتی را در نظر بگیرند. شرکت‌هایی که ابزارهای منبع ‌باز و آماده را در نظر می‌گیرند باید محدودیت‌های این گزینه‌ها را درک کنند. برای مثال، برخی از ابزارهای توضیح‌ پذیری بر توضیحات post-hoc تکیه می‌کنند که عوامل مربوطه را تنها بر اساس بررسی خروجی سیستم استنتاج می‌کنند.

تحقیق یک نیاز مستمر است زیرا الزامات قانونی و مقرراتی و همچنین انتظارات مصرف کنندگان و هنجارهای صنعت به سرعت در حال تغییر هستند. کمیته‌های حاکمیت هوش مصنوعی می‌خواهند به طور فعال نظارت کنند و در صورت امکان، تحقیقات خود را در این فضا انجام دهند تا از یادگیری مستمر و توسعه دانش اطمینان حاصل کنند. کمیته همچنین باید یک برنامه آموزشی ایجاد کند تا اطمینان حاصل شود که کارکنان در سراسر سازمان می‌توانند آخرین پیشرفت‌ها را در این فضا به کار گیرند.

مردم از آنچه می‌فهمند و اعتماد دارند استفاده می‌کنند. این امر به ویژه در مورد هوش مصنوعی صادق است. کسب ‌و کارهایی که نشان دادن نحوه استخراج بینش‌ها و توصیه‌های هوش مصنوعی را آسان می‌کنند، نه تنها با کاربران هوش مصنوعی سازمان‌شان، بلکه با تنظیم ‌کننده‌ها و مصرف‌ کنندگان و از نظر نتایج نهایی آن‌ها، جلو خواهند آمد.

بدون دیدگاه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *