از آنجایی که هوش مصنوعی تصمیمات بیشتری را ارائه میکند، سیستمهای هوش مصنوعی شرکتها باید توسط کاربران و کسانی که تحت تأثیر استفاده از هوش مصنوعی قرار دارند و نیاز کسب و کارها به هوش مصنوعی را پذیرفتهاند، درک شود. اقدامات در دو زمینه میتواند مزایای هوش مصنوعی را به حداکثر برساند و خطر را به حداقل برساند.
کسبوکارها بهطور فزایندهای به سیستمهای هوش مصنوعی (AI) برای تصمیمگیری نیاز دارند و متکی هستند که میتواند به طور قابل توجهی بر حقوق فردی، ایمنی انسان و عملیات حیاتی کسب و کار تأثیر بگذارد. اما این مدلها چگونه نتیجه گیری خود را به دست میآورند؟ از چه دادههایی استفاده میکنند؟ و آیا میتوانیم به نتایج اعتماد کنیم؟
پرداختن به این پرسشها، جوهره «توضیح پذیری» است و پاسخ کاربردی و قابل پیاده سازی به آنها ضروری است.
در حالی بسیاری از کسب و کارها و شرکتها شروع به استفاده از ابزارهای اساسی برای درک اینکه چگونه و چرا مدلهای هوش مصنوعی بینش خود را ارائه میدهند کردهاند. این نکته را باید در نظر داشته باشید که برای رسیدن به ارزش کامل هوش مصنوعی نیازمند یک استراتژی جامع هستیم. تحقیقات ما نشان میدهد شرکتهایی که بیشترین بازده را از هوش مصنوعی میگیرند، آنهایی هستند که حداقل ۲۰ درصد EBIT خود را به استفاده از هوش مصنوعی نسبت میدهند. آنها میزان بیشتری نسبت به دیگران از بهترین شیوهها پیروی میکنند که این قابلیت توضیح را فراهم میکند. علاوه بر این، سازمانهایی که اعتماد دیجیتالی را در میان مصرف کنندگان از طریق شیوههایی مانند توضیح دادن هوش مصنوعی ایجاد میکنند، احتمالاً شاهد رشد سالانه درآمد و EBIT خود با نرخهای ۱۰ درصد یا بیشتر خواهند بود.
حتی با افزایش اهمیت توضیح پذیری، باز هم این موضوع هوش مصنوعی به طور قابل توجهی سختتر میشود. تکنیکهای مدلسازی که امروزه به بسیاری از برنامههای هوش مصنوعی، مانند یادگیری عمیق و شبکههای عصبی نیرو میدهند، ذاتاً برای انسان دشوارتر هستند. با وجود تمام بینشهای پیش بینی کننده که هوش مصنوعی میتواند ارائه دهد، موتورهای یادگیری ماشینی پیشرفته اغلب یک جعبه سیاه باقی میمانند. راه حل صرفاً یافتن راههای بهتر برای انتقال نحوه عملکرد یک سیستم نیست. بلکه در مورد ایجاد ابزارها و فرآیندهایی است که میتواند حتی به متخصص عمیق در درک نتیجه و توضیح آن برای دیگران کمک کند.
برای روشن کردن این سیستمها و برآوردن نیازهای مشتریان، کارمندان و تنظیم کنندهها، سازمانها باید بر اصول توضیح پذیری تسلط داشته باشند. به دست آوردن این تسلط مستلزم ایجاد یک چارچوب حاکمیتی، اعمال شیوههای صحیح و سرمایه گذاری در مجموعه ابزارهای مناسب است.
آنچه توضیح پذیری را چالش برانگیز میکند.
توضیح پذیری، یعنی توانایی بیان این که چرا یک سیستم هوش مصنوعی به یک تصمیم، توصیه یا پیش بینی خاص رسیده است. توسعه این قابلیت مستلزم درک نحوه عملکرد مدل هوش مصنوعی و انواع دادههای مورد استفاده برای آموزش آن است. این به اندازه کافی ساده به نظر میرسد، اما هرچه یک سیستم هوش مصنوعی پیچیدهتر شود، تعیین دقیق اینکه چگونه یک بینش خاص را به دست آورده، دشوارتر میشود. موتورهای هوش مصنوعی در طول زمان با دریافت مداوم دادهها، سنجش قدرت پیشبینی ترکیبهای الگوریتمی مختلف و بروزرسانی مدل حاصل، «باهوشتر» میشوند. آنها همه این کارها را با سرعت فوق العاده انجام میدهند، گاهی اوقات خروجیها را در کسری از ثانیه ارائه میدهند.
تفکیک یک بینش مرتبه اول و توضیح اینکه چگونه هوش مصنوعی از A به B رفت ممکن است نسبتاً آسان باشد. اما از آنجایی که موتورهای هوش مصنوعی دادهها را درون یابی میکنند و دوباره درون یابی میکنند، پیگیری مسیر حسابرسی بینش سختتر میشود.
مصرف کنندگان مختلف دادههای سیستم هوش مصنوعی نیازهای قابل توضیح متفاوتی دارند و همین مسائل را پیچیدهتر میکند. به عنوان نمونه بانکی که از موتور هوش مصنوعی برای حمایت از تصمیمات اعتباری استفاده میکند، باید به مصرف کنندگانی که از دریافت وام محروم شدهاند، دلیلی برای آن نتیجه ارائه دهد. کارشناسان وام و متخصصان هوش مصنوعی ممکن است به اطلاعات دقیقتری نیاز داشته باشند تا به آنها کمک کند عوامل خطر و وزنهای مورد استفاده در تصمیم گیری برای اطمینان از تنظیم بهینه مدل را درک کنند. همچنین یک اداره برای کنترل ریسک یا بخش دیگری ممکن است نیاز باشد تایید کند که دادههای مورد استفاده در موتور هوش مصنوعی تصمیماتش برای متقاضیان خاص غرضی نداشته باشد.
پنج راه که هوش مصنوعی قابل توضیح میتواند برای سازمانها مفید باشد.
تسلط بر توضیح پذیری حداقل به پنج روش به متخصصان فناوری، تجارت و ریسک کمک میکند:
۱ـ افزایش بهره وری. تکنیکهایی که قابلیت توضیح را فراهم میکنند، میتوانند سریعتر خطاها یا زمینههای بهبود را آشکار کنند، و کار را برای تیمهای عملیات یادگیری ماشین (MLOps) که وظیفه نظارت بر سیستمهای هوش مصنوعی برای نظارت و نگهداری کارآمد سیستمهای هوش مصنوعی را دارند، آسانتر میکنند. به عنوان نمونه، درک ویژگیهای خاصی که منجر به خروجی مدل میشود به تیمهای فنی کمک میکند تا تأیید کنند که آیا الگوهای شناسایی شده توسط مدل به طور گسترده قابل اجرا و مرتبط با پیش بینیهای آینده هستند یا در عوض دادههای تاریخی یکباره یا غیرعادی را منعکس میکنند.
۲ـ ایجاد اعتماد و پذیرش. توضیح پذیری نیز برای ایجاد اعتماد بسیار مهم است. مشتریان و عموم مردم باید مطمئن باشند که مدلهای هوش مصنوعی که تصمیمات نتیجهای را ارائه میکنند، این کار را به روشی دقیق و منصفانه انجام میدهند. به همین ترتیب، حتی پیشرفتهترین سیستمهای هوش مصنوعی نیز، اگر کاربران مورد نظر اساس تصمیمهای ارائه شده را درک نکنند، قطعا خاک خواهند خورد. به عنوان نمونه، تیمهای فروش بیشتر به یک برنامه هوش مصنوعی اعتماد میکنند که به نظر میرسد بهترین تصمیمات و اقدامات بعدی آن از یک جعبه سیاه کامل میآید. از این رو دانستن اینکه چرا یک هوش مصنوعی چنین توصیهای را ارائه کرده است، اعتماد متخصصان فروش را در پیروی از آن افزایش می دهد.
۳ـ سطح مداخلات جدید و ارزش زا. بازگشایی نحوه عملکرد یک مدل هوش مصنوعی همچنین میتواند به شرکتها کمک کند تا مداخلات تجاری را که در غیر این صورت پنهان میماندند را، آشکار کنند. در برخی موارد، درک عمیقتر چرایی یک پیش بینی میتواند حتی به ارزش بیشتری نسبت به خود پیش بینی یا توصیه منجر شود. برای نمونه، پیش بینی ریزش مشتری در یک بخش خاص میتواند به خودی خود مفید باشد، اما توضیح اینکه چرا احتمال ریزش وجود دارد میتواند مؤثرترین راهها را برای مداخله کسبوکار نشان دهد.
برای یک بیمهگر خودرو، با استفاده از ابزارهای توضیح پذیری مانند مقادیر SHAP (مقادیر (SHapley Additive Explanations) روشی مبتنی بر تئوری بازیهای مشارکتی است و برای افزایش شفافیت و تفسیرپذیری مدلهای یادگیری ماشین استفاده میشود.) نشان داد که چگونه ریسک بیشتر با فعل و انفعالات خاصی بین ویژگیهای وسیله نقلیه و راننده مرتبط است. این شرکت از این بینشها برای تعدیل مدلهای ریسک خود استفاده کرد که پس از آن عملکرد آن به طور قابل توجهی بهبود یافت.
۴ـ اطمینان از اینکه هوش مصنوعی ارزش کسب و کار را فراهم میکند. وقتی تیم فنی میتواند نحوه عملکرد یک سیستم هوش مصنوعی را توضیح دهد، تیم تجاری میتواند تأیید کند که هدف تجاری مورد نظر محقق شده است و موقعیتهایی را که چیزی در ترجمه گم شده است، شناسایی کند. این تضمین میکند که یک برنامه هوش مصنوعی برای ارائه ارزش مورد انتظار خود تنظیم شده است.
۵ـ کاهش خطرات نظارتی و سایر خطرات. توضیح پذیری به سازمانها کمک میکند تا خطرات را کاهش دهند. سیستمهای هوش مصنوعی که با هنجارهای اخلاقی مخالفت میکنند، حتی اگر ناخواسته باشند، میتوانند نظارت شدید عمومی، رسانهها و نظارتی را برانگیزند. تیمهای حقوقی میتوانند با استفاده از توضیحات ارائه شده توسط تیم فنی، به همراه مورد استفاده تجاری مورد نظر، تأیید کنند که سیستم با قوانین و مقررات قابل اجرا مطابقت دارد و با سیاستها و ارزشهای داخلی شرکت همسو است.
در برخی از بخشها، توضیح پذیری یک الزام است. به عنوان نمونه، بولتن اخیر که توسط وزارت بیمه کالیفرنیا منتشر شده است، از شرکتهای بیمه میخواهد که اقدامات نامطلوب انجام شده بر اساس الگوریتمهای پیچیده را توضیح دهند. با افزایش استفاده از هوش مصنوعی، سازمانها میتوانند انتظار قوانین بیشتری در مورد توضیح پذیری داشته باشند. مقررات جدید، مانند پیش نویس مقررات هوش مصنوعی اتحادیه اروپا، ممکن است شامل مراحل انطباق با قابلیت توضیح خاصی باشد. حتی زمانی که به طور خاص اجباری نشده باشد، شرکتها باید تأیید کنند که هر ابزاری که برای ارائه اقداماتی مانند تعیین اعتبار استفاده میشود با قوانین ضد تبعیض قابل اجرا و همچنین قوانین منع اعمال ناعادلانه یا فریبنده مطابقت دارد.
در پایان هدف ما این بود که تاکید کنیم که نیاز کسب و کارها به هوش مصنوعی انکار ناپذیر است و باید کسب و کارها در تمام بخشهای خود به سمت آن حرکت کنند.
در مقاله بعدی به این میپردازیم که چگونه کسب و کارها میتوانند هوش مصنوعی را قابل توضیح یا مدیریت کنند؟
[/vc_column_text][/vc_column][/vc_row]
بدون دیدگاه