سازمانهایی که چارچوبی برای توضیح پذیری هوش مصنوعی ایجاد میکنند و ابزارهای توانمند مناسب را به دست میآورند، در موقعیت بهتری قرار خواهند گرفت تا ارزش کامل یادگیری عمیق و سایر پیشرفتهای هوش مصنوعی را دریافت کنند. ما به سازمانها پیشنهاد میکنیم که با گنجاندن توضیح پذیری به عنوان یکی از اصول کلیدی در دستور العملهای توسعهی هوش مصنوعی شروع کنند. سپس سازمانها میتوانند این اصل را با ایجاد یک کمیته مدیریت هوش مصنوعی برای تنظیم استانداردها و راهنماییها برای تیمهای توسعه هوش مصنوعی، از جمله دستور العملهایی برای فرآیندهای بررسی مورد خاص، و با سرمایه گذاری در استعداد، فناوری، تحقیق و آموزش مناسب، عملیاتی کنند.
در مقالهی پیشین توضیح پذیری هوش مصنوعی برای کسب و کارها را شرح دادیم و بیان شد، چرا کسب و کارها به هوش مصنوعی قابل توضیح نیاز دارند. حال در این مقاله به این میپردازیم که کسب و کارها میتوانند هوش مصنوعی را برای خود قابل توضیح کنند و بتوانند پیش از رسیدن به بحران آن را به فرصت تبدیل کنند.
یک کمیته مدیریت هوش مصنوعی برای هدایت تیمهای توسعه هوش مصنوعی ایجاد کنید.
ایجاد یک کمیته مدیریت هوش مصنوعی شامل استخدام اعضای آن و تعیین محدوده کار است. توضیح پذیری و ارزیابی ریسک موارد استفاده از هوش مصنوعی ممکن است پیچیده باشد، و به درک هدف تجاری، کاربران مورد نظر، فناوری و هرگونه الزامات قانونی قابل اجرا نیاز داشته باشد. به همین دلیل، سازمانها میخواهند مجموعهای متقابل از متخصصان با تجربه، از جمله رهبران کسب و کار، کارشناسان فنی و متخصصان حقوقی و ریسک را تشکیل دهند. ارائه دیدگاههای مختلف در داخل و خارج نیز میتواند به شرکت کمک کند تا آزمایش کند که آیا توضیحات ارائه شده برای پشتیبانی از یک مدل هوش مصنوعی برای مخاطبان مختلف بصری و موثر هستند یا خیر.
یکی از وظایف کلیدی این کمیته تعیین استانداردهایی برای قابلیت توضیح هوش مصنوعی خواهد بود. به عنوان بخشی از فرآیند تنظیم استانداردها، کمیتههای مدیریتی مؤثر هوش مصنوعی اغلب یک طبقه بندی ریسک ایجاد میکنند که میتواند برای طبقه بندی حساسیت موارد مختلف استفاده از هوش مصنوعی استفاده شود. طبقه بندی به راهنماییهایی مرتبط است که انتظارات و استانداردها را با توجه به موارد استفاده مختلف مشخص میکند. به عنوان نمونه، آیا توضیحی برای مطابقت با الزامات نظارتی ضروری است یا هدف صرفاً ارائه یک نمای کلی از عملکرد برای کمک به پذیرش است؟ طبقه بندی همچنین روشن میکند که چه زمانی ممکن است تشدید به هیئت بازبینی یا قانونی مورد نیاز باشد.
از آن جایی که هر مورد استفاده از هوش مصنوعی میتواند مجموعه متفاوتی از خطرات و الزامات قانونی مرتبط با قابلیت توضیح را ارائه دهد، سازمانها باید فرآیندی را برای تیمهای توسعه مدل ایجاد کنند تا هر مورد استفاده را ارزیابی کنند. این فرآیند سازمان را برای مدیریت این خطرات و گرفتن ارزش از هوش مصنوعی بهتر موقعیت میدهد. ردیابی نتیجه این ارزیابیها در یک فهرست مرکزی کمک میکند تا اطمینان حاصل شود که سازمان میتواند استفاده از سیستمهای هوش مصنوعی را برای انطباق با قانون و پایبندی به اصول هوش مصنوعی نظارت کند.
به عنوان بخشی از فرآیند بررسی، تیمها باید بر اساس ارزش بالقوه ناشی از، به عنوان مثال، اعتماد، پذیرش یا بهره وری بیشتر، فراتر از الزامات توضیح پذیری اولیه بروند یا خیر. در برخی موارد، ممکن است یک مبادله بین توضیح پذیری و دقت وجود داشته باشد. برای مثال، ساده سازی مکانیکهای یک مدل هوش مصنوعی ممکن است اعتماد کاربر را بهبود بخشد، اما در برخی – نه همه – موارد، تغییر ممکن است مدل را دقیقتر کند. هنگامی که معاوضه وجود دارد، تیم ها باید ملاحظات رقابتی، از جمله هرگونه الزامات نظارتی را بسنجید و در صورت لزوم به رهبری افزایش دهند.
ممکن است تیمها بتوانند خودشان به این مبادلات بپردازند. گاهی اوقات آنها میتوانند با ردیابی عملکرد مدل و الگوهای متمایز، عواملی را که منجر به نتایج پیش بینی کننده برای مدلهای پیشرفته هوش مصنوعی میشوند، مهندسی معکوس کنند. سپس میتوانند سعی کنند مدل پیچیده را با استفاده از روشهای آماری سادهتر و درک بهتر مانند رگرسیون لجستیک تکرار کنند. در برخی موارد، نتیجه یک مدل با کارایی یکسان با خروجیهایی است که ذاتا قابل توضیح هستند.
روی استعدادهای مناسب، فناوری قابل توضیح، تحقیق و آموزش سرمایه گذاری کنید.
سرعت سریع تغییرات فنی و قانونی در حوزه توضیح پذیری، استخدام استعدادهای مناسب، سرمایه گذاری در مجموعهای از ابزارهای مناسب، مشارکت در تحقیقات فعال و انجام آموزشهای مداوم را برای شرکتها ضروری میکند.
سازمانهای با عملکرد بالا یک استراتژی استعداد برای حمایت از حکمرانی هوش مصنوعی در سراسر شرکت توسعه میدهند. این شرکتها به دنبال حفظ همکاران حقوقی و ریسکی هستند که میتوانند به طور فعال و معنیدار با کسبوکار و فنآوران تعامل داشته باشند تا قوانین قابل اجرا را دنبال کنند، انتظارات مصرف کننده را برآورده کنند و محصولات اصلی «مطمئن با آینده» (شامل ویژگیها و مجموعههای داده) را با تکامل قانون انجام دهند. به طور مشابه، شرکتها برای استخدام فنآورانی آشنا به مسائل حقوقی یا متمرکز بر اخلاق فناوری به خوبی خدمت میکنند.
سرمایه گذاری در فناوریهای توضیح پذیر باید با هدف دستیابی به ابزارهای مناسب برای برآوردن نیازهای شناسایی شده توسط تیمهای توسعه در طول فرآیند بررسی باشد. برای نمونه، ابزارهای پیشرفتهتر ممکن است توضیحی قوی در زمینهای ارائه دهند که در غیر این صورت برای کسب آنها به تیمهایی نیاز است که در نهایت دقت را قربانی میکنند. اگرچه هزینه اولیه راهحلهای سفارشی ممکن است بیشتر باشد، اما گاهی اوقات در دراز مدت جواب میدهد، زیرا میتوانند زمینهای را که مدل در آن استقرار مییابد، از جمله کاربران مورد نظر و هرگونه الزامات قانونی یا نظارتی را در نظر بگیرند. شرکتهایی که ابزارهای منبع باز و آماده را در نظر میگیرند باید محدودیتهای این گزینهها را درک کنند. برای مثال، برخی از ابزارهای توضیح پذیری بر توضیحات post-hoc تکیه میکنند که عوامل مربوطه را تنها بر اساس بررسی خروجی سیستم استنتاج میکنند.
تحقیق یک نیاز مستمر است زیرا الزامات قانونی و مقرراتی و همچنین انتظارات مصرف کنندگان و هنجارهای صنعت به سرعت در حال تغییر هستند. کمیتههای حاکمیت هوش مصنوعی میخواهند به طور فعال نظارت کنند و در صورت امکان، تحقیقات خود را در این فضا انجام دهند تا از یادگیری مستمر و توسعه دانش اطمینان حاصل کنند. کمیته همچنین باید یک برنامه آموزشی ایجاد کند تا اطمینان حاصل شود که کارکنان در سراسر سازمان میتوانند آخرین پیشرفتها را در این فضا به کار گیرند.
مردم از آنچه میفهمند و اعتماد دارند استفاده میکنند. این امر به ویژه در مورد هوش مصنوعی صادق است. کسب و کارهایی که نشان دادن نحوه استخراج بینشها و توصیههای هوش مصنوعی را آسان میکنند، نه تنها با کاربران هوش مصنوعی سازمانشان، بلکه با تنظیم کنندهها و مصرف کنندگان و از نظر نتایج نهایی آنها، جلو خواهند آمد.
بدون دیدگاه