از آنجایی که هوش مصنوعی تصمیمات بیشتری را ارائه می‌کند، سیستم‌های هوش مصنوعی شرکت‌ها باید توسط کاربران و کسانی که تحت تأثیر استفاده از هوش مصنوعی قرار دارند و نیاز کسب و کارها به هوش مصنوعی را پذیرفته‌اند، درک شود. اقدامات در دو زمینه می‌تواند مزایای هوش مصنوعی را به حداکثر برساند و خطر را به حداقل برساند.

کسب‌وکارها به‌طور فزاینده‌ای به سیستم‌های هوش مصنوعی (AI) برای تصمیم‌گیری نیاز دارند و متکی هستند که می‌تواند به طور قابل ‌توجهی بر حقوق فردی، ایمنی انسان و عملیات حیاتی کسب و کار تأثیر بگذارد. اما این مدل‌ها چگونه نتیجه گیری خود را به دست می‌آورند؟ از چه داده‌هایی استفاده می‌کنند؟ و آیا می‌توانیم به نتایج اعتماد کنیم؟

پرداختن به این پرسش‌ها، جوهره «توضیح پذیری» است و پاسخ کاربردی و قابل پیاده سازی به آن‌ها ضروری است.

در حالی بسیاری از کسب و کارها و شرکت‌ها شروع به استفاده از ابزارهای اساسی برای درک اینکه چگونه و چرا مدل‌های هوش مصنوعی بینش خود را ارائه می‌دهند کرده‌اند. این نکته را باید در نظر داشته باشید که برای رسیدن به ارزش کامل هوش مصنوعی نیازمند یک استراتژی جامع هستیم. تحقیقات ما نشان می‌دهد شرکت‌هایی که بیشترین بازده را از هوش مصنوعی می‌گیرند، آن‌هایی هستند که حداقل ۲۰ درصد EBIT خود را به استفاده از هوش مصنوعی نسبت می‌دهند. آنها میزان بیشتری نسبت به دیگران از بهترین شیوه‌ها پیروی می‌کنند که این قابلیت توضیح را فراهم می‌کند. علاوه بر این، سازمان‌هایی که اعتماد دیجیتالی را در میان مصرف‌ کنندگان از طریق شیوه‌هایی مانند توضیح دادن هوش مصنوعی ایجاد می‌کنند، احتمالاً شاهد رشد سالانه درآمد و EBIT خود با نرخ‌های ۱۰ درصد یا بیشتر خواهند بود.

حتی با افزایش اهمیت توضیح پذیری، باز هم این موضوع هوش مصنوعی به طور قابل توجهی سخت‌تر می‌شود. تکنیک‌های مدل‌سازی که امروزه به بسیاری از برنامه‌های هوش مصنوعی، مانند یادگیری عمیق و شبکه‌های عصبی نیرو می‌دهند، ذاتاً برای انسان دشوارتر هستند. با وجود تمام بینش‌های پیش ‌بینی‌ کننده که هوش مصنوعی می‌تواند ارائه دهد، موتورهای یادگیری ماشینی پیشرفته اغلب یک جعبه سیاه باقی می‌مانند. راه حل صرفاً یافتن راه‌های بهتر برای انتقال نحوه عملکرد یک سیستم نیست. بلکه در مورد ایجاد ابزارها و فرآیندهایی است که می‌تواند حتی به متخصص عمیق در درک نتیجه و توضیح آن برای دیگران کمک کند.

برای روشن کردن این سیستم‌ها و برآوردن نیازهای مشتریان، کارمندان و تنظیم‌ کننده‌ها، سازمان‌ها باید بر اصول توضیح ‌پذیری تسلط داشته باشند. به دست آوردن این تسلط مستلزم ایجاد یک چارچوب حاکمیتی، اعمال شیوه‌های صحیح و سرمایه گذاری در مجموعه ابزارهای مناسب است.

آنچه توضیح پذیری را چالش برانگیز می‌کند.

توضیح پذیری، یعنی توانایی بیان این که چرا یک سیستم هوش مصنوعی به یک تصمیم، توصیه یا پیش بینی خاص رسیده است. توسعه این قابلیت مستلزم درک نحوه عملکرد مدل هوش مصنوعی و انواع داده‌های مورد استفاده برای آموزش آن است. این به اندازه کافی ساده به نظر می‌رسد، اما هرچه یک سیستم هوش مصنوعی پیچیده‌تر شود، تعیین دقیق اینکه چگونه یک بینش خاص را به دست آورده، دشوارتر می‌شود. موتورهای هوش مصنوعی در طول زمان با دریافت مداوم داده‌ها، سنجش قدرت پیش‌بینی ترکیب‌های الگوریتمی مختلف و بروزرسانی مدل حاصل، «باهوش‌تر» می‌شوند. آنها همه این کارها را با سرعت فوق العاده انجام می‌دهند، گاهی اوقات خروجی‌ها را در کسری از ثانیه ارائه می‌دهند.

تفکیک یک بینش مرتبه اول و توضیح اینکه چگونه هوش مصنوعی از A به B رفت ممکن است نسبتاً آسان باشد. اما از آنجایی که موتورهای هوش مصنوعی داده‌ها را درون یابی می‌کنند و دوباره درون یابی می‌کنند، پیگیری مسیر حسابرسی بینش سخت‌تر می‌شود.

مصرف کنندگان مختلف داده‌های سیستم هوش مصنوعی نیازهای قابل توضیح متفاوتی دارند و همین مسائل را پیچیده‌تر می‌کند. به عنوان نمونه بانکی که از موتور هوش مصنوعی برای حمایت از تصمیمات اعتباری استفاده می‌کند، باید به مصرف کنندگانی که از دریافت وام محروم شده‎اند، دلیلی برای آن نتیجه ارائه دهد. کارشناسان وام و متخصصان هوش مصنوعی ممکن است به اطلاعات دقیق‌تری نیاز داشته باشند تا به آنها کمک کند عوامل خطر و وزن‌های مورد استفاده در تصمیم گیری برای اطمینان از تنظیم بهینه مدل را درک کنند. همچنین یک اداره برای کنترل ریسک یا بخش دیگری ممکن است نیاز باشد تایید کند که داده‌های مورد استفاده در موتور هوش مصنوعی تصمیماتش برای متقاضیان خاص غرضی نداشته باشد.

نیاز کسب و کارها به هوش مصنوعی

پنج راه که هوش مصنوعی قابل توضیح می‌تواند برای سازمان‌ها مفید باشد.

تسلط بر توضیح پذیری حداقل به پنج روش به متخصصان فناوری، تجارت و ریسک کمک می‌کند:

۱ـ افزایش بهره وری. تکنیک‌هایی که قابلیت توضیح را فراهم می‌کنند، می‌توانند سریع‌تر خطاها یا زمینه‌های بهبود را آشکار کنند، و کار را برای تیم‌های عملیات یادگیری ماشین (MLOps) که وظیفه نظارت بر سیستم‌های هوش مصنوعی برای نظارت و نگهداری کارآمد سیستم‌های هوش مصنوعی را دارند، آسان‌تر می‌کنند. به عنوان نمونه، درک ویژگی‌های خاصی که منجر به خروجی مدل می‌شود به تیم‌های فنی کمک می‌کند تا تأیید کنند که آیا الگوهای شناسایی ‌شده توسط مدل به طور گسترده قابل اجرا و مرتبط با پیش ‌بینی‌های آینده هستند یا در عوض داده‌های تاریخی یکباره یا غیرعادی را منعکس می‌کنند.

۲ـ ایجاد اعتماد و پذیرش. توضیح پذیری نیز برای ایجاد اعتماد بسیار مهم است. مشتریان و عموم مردم باید مطمئن باشند که مدل‌های هوش مصنوعی که تصمیمات نتیجه‌ای را ارائه می‌کنند، این کار را به روشی دقیق و منصفانه انجام می‌دهند. به همین ترتیب، حتی پیشرفته‌ترین سیستم‌های هوش مصنوعی نیز، اگر کاربران مورد نظر اساس تصمیم‌های ارائه‌ شده را درک نکنند، قطعا خاک خواهند خورد. به عنوان نمونه، تیم‌های فروش بیشتر به یک برنامه هوش مصنوعی اعتماد می‌کنند که به نظر می‌رسد بهترین تصمیمات و اقدامات بعدی آن از یک جعبه سیاه کامل می‌آید. از این رو دانستن اینکه چرا یک هوش مصنوعی چنین توصیه‌ای را ارائه کرده است، اعتماد متخصصان فروش را در پیروی از آن افزایش می دهد.

۳ـ سطح مداخلات جدید و ارزش زا. بازگشایی نحوه عملکرد یک مدل هوش مصنوعی همچنین می‌تواند به شرکت‌ها کمک کند تا مداخلات تجاری را که در غیر این صورت پنهان می‌ماندند را، آشکار کنند. در برخی موارد، درک عمیق‌تر چرایی یک پیش ‌بینی می‌تواند حتی به ارزش بیشتری نسبت به خود پیش‌ بینی یا توصیه منجر شود. برای نمونه، پیش‌ بینی ریزش مشتری در یک بخش خاص می‌تواند به خودی خود مفید باشد، اما توضیح اینکه چرا احتمال ریزش وجود دارد می‌تواند مؤثرترین راه‌ها را برای مداخله کسب‌وکار نشان دهد.

برای یک بیمه‌گر خودرو، با استفاده از ابزارهای توضیح‌ پذیری مانند مقادیر SHAP (مقادیر (SHapley Additive Explanations) روشی مبتنی بر تئوری بازی‌های مشارکتی است و برای افزایش شفافیت و تفسیرپذیری مدل‌های یادگیری ماشین استفاده می‌شود.) نشان داد که چگونه ریسک بیشتر با فعل و انفعالات خاصی بین ویژگی‌های وسیله نقلیه و راننده مرتبط است. این شرکت از این بینش‌ها برای تعدیل مدل‌های ریسک خود استفاده کرد که پس از آن عملکرد آن به طور قابل توجهی بهبود یافت.

۴ـ اطمینان از اینکه هوش مصنوعی ارزش کسب و کار را فراهم می‌کند. وقتی تیم فنی می‌تواند نحوه عملکرد یک سیستم هوش مصنوعی را توضیح دهد، تیم تجاری می‌تواند تأیید کند که هدف تجاری مورد نظر محقق شده است و موقعیت‌هایی را که چیزی در ترجمه گم شده است، شناسایی کند. این تضمین می‌کند که یک برنامه هوش مصنوعی برای ارائه ارزش مورد انتظار خود تنظیم شده است.

۵ـ کاهش خطرات نظارتی و سایر خطرات. توضیح پذیری به سازمان‌ها کمک می‌کند تا خطرات را کاهش دهند. سیستم‌های هوش مصنوعی که با هنجارهای اخلاقی مخالفت می‌کنند، حتی اگر ناخواسته باشند، می‌توانند نظارت شدید عمومی، رسانه‌ها و نظارتی را برانگیزند. تیم‌های حقوقی می‌توانند با استفاده از توضیحات ارائه شده توسط تیم فنی، به همراه مورد استفاده تجاری مورد نظر، تأیید کنند که سیستم با قوانین و مقررات قابل اجرا مطابقت دارد و با سیاست‌ها و ارزش‌های داخلی شرکت همسو است.

در برخی از بخش‌ها، توضیح پذیری یک الزام است. به عنوان نمونه، بولتن اخیر که توسط وزارت بیمه کالیفرنیا منتشر شده است، از شرکت‌های بیمه می‌خواهد که اقدامات نامطلوب انجام شده بر اساس الگوریتم‌های پیچیده را توضیح دهند. با افزایش استفاده از هوش مصنوعی، سازمان‌ها می‌توانند انتظار قوانین بیشتری در مورد توضیح‌ پذیری داشته باشند. مقررات جدید، مانند پیش ‌نویس مقررات هوش مصنوعی اتحادیه اروپا، ممکن است شامل مراحل انطباق با قابلیت توضیح خاصی باشد. حتی زمانی که به طور خاص اجباری نشده باشد، شرکت‌ها باید تأیید کنند که هر ابزاری که برای ارائه اقداماتی مانند تعیین اعتبار استفاده می‌شود با قوانین ضد تبعیض قابل اجرا و همچنین قوانین منع اعمال ناعادلانه یا فریبنده مطابقت دارد.

در پایان هدف ما این بود که تاکید کنیم که نیاز کسب و کارها به هوش مصنوعی انکار ناپذیر است و باید کسب و کارها در تمام بخش‌های خود به سمت آن حرکت کنند.

در مقاله بعدی به این می‌پردازیم که چگونه کسب و کارها می‌توانند هوش مصنوعی را قابل توضیح یا مدیریت کنند؟

 

[/vc_column_text][/vc_column][/vc_row]

بدون دیدگاه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *