هوش مصنوعی مسئول RAI

هوش مصنوعی مسئول (RAI) رویکردی برای استقرار سیستم‌های هوش مصنوعی است که با اهداف و ارزش‌های یک شرکت همسو می‌شود و در عین حال تأثیرات تجاری متحول کننده‌ای دارد. از آنجایی که هوش مصنوعی مدل‌های کسب‌وکار را در سراسر جهان مختل می‌کند، RAI به مدیران عامل توانایی قدرتمندی برای مدیریت ریسک‌های این فناوری قدرتمند در حال ظهور را می‌دهد. پیش‌تر راهنمایی‌هایی را برای مدیران عامل در مواجهه با انقلاب هوش مصنوعی بررسی و بیان کردیم. حال در این بخش به سراغ استفاده از هوش مصنوعی مسئول، تویط مدیران عامل در سازمان‌ها می‌رویم.

هوش مصنوعی مسئول (RAI)

هوش مصنوعی بر سرفصل‌های کسب‌وکار، از نوآوری‌های پیشگامانه گرفته تا کارایی فرآیند، تسلط دارد؛ به‌ویژه زمانی که هوش مصنوعی مولد دنیا را در برگرفته است. برنامه‌هایی مانند ChatGPT قول می‌دهند مدل‌های تجاری را مختل کنند و قابلیت‌های جدیدی را برای شرکت‌ها در همه جا به ارمغان بیاورند، از جمله آن‌هایی که قبلاً کاربران بالغ هوش مصنوعی نبودند.

برای استفاده‌ی حداکثری از پتانسیل در حال رشد هوش مصنوعی، سازمان‌ها در حال پرسش، آزمایش و استفاده از منابع متنوع هوش مصنوعی هستند. این تعامل تنها زمانی رشد می‌کند که شرکت‌ها از هوش مصنوعی برای افزایش انعطاف ‌پذیری و بهینه ‌سازی هزینه‌ها در مواجهه با عدم اطمینان اقتصادی، به طور مداوم استفاده ‌کنند. اما برای اینکه یک سازمان بتواند از مزایای کامل فناوری و در عین حال محدود کردن خطرات آن بهره مند شود، یک نفر باید اطمینان حاصل کند که هوش مصنوعی به طور مسئولانه استفاده می‌شود. آن یک نفر کسی نیست جز مدیرعامل.

هوش مصنوعی به عنوان یک ابزار مهم در پشتوانه‌ی استراتژیک شرکت‌ها جای خود را باز می‌کند؛ اما این فناوری نگرانی‌های زیادی را به C-suite (بالاترین مدیر سطح سازمان) می‌دهد.

همه از سرمایه ‌گذاران گرفته تا اعضای هیئت‌ مدیره می‌خواهند جنبه‌های منفی بالقوه هوش مصنوعی تحت کنترل باشد و به دنبال پاسخ به مدیر عامل هستند. هیچ فرد بهتری برای پاسخگویی وجود ندارد. استقرار هوش مصنوعی انتخاب‌های اخلاقی را افزایش می‌دهد که هرگز واضح نیستند، و مستلزم قضاوتی هستند که اغلب فقط یک مدیر عامل می‌تواند ارائه یا تسهیل کند. چنین انتخاب‌هایی باید با برخی از مهم‌ترین اولویت‌های مدیر عامل، از هدایت اهداف و ارزش‌های شرکت گرفته تا تعریف رویکرد کلی آن به نوآوری و مدیریت ریسک، همسو باشد.

هوش مصنوعی مسئول RAI رویکردی برای طراحی، توسعه و استقرار سیستم‌های هوش مصنوعی است. این رویکرد با هدف و ارزش‌های شرکت همسو است و در عین حال تأثیرات تجاری متحول کننده‌ای دارد. یک برنامه RAI شامل استراتژی، حاکمیت، فرآیندها، ابزارها و فرهنگ است که برای تعبیه رویکرد در یک سازمان ضروری است. برای مثال، استراتژی RAI، اصولی را که توسط یک نهاد چند رشته‌ای که بخشی از حکمرانی است را مورد حمایت قرار می‌دهد. ارزیابی ریسک و راهنماهای توسعه‌ی محصول از جمله فرآیندهای توانمندی هستند که توسط ابزارهایی پشتیبانی می‌شوند که به تیم‌های محصول کمک می‌کنند خطرات هوش مصنوعی مانند سوگیری را شناسایی کنند. ارتباطات با همه‌ی کارکنان، به توسعه دهندگان هوش مصنوعی و کاربران آن، کمک می‌کند تا RAI به عنوان بخشی از فرهنگ شرکت القا شود.

RAI به رهبران توانایی قدرتمندی برای مدیریت ریسک‌های متعدد هوش مصنوعی می‌دهد. اما دریافتیم که اکثر شرکت‌ها در اتخاذ و اجرای کامل این رویکرد کند بوده‌اند. تعهد پایدار به RAI، به رهبری مدیرعامل، کلید موفقیت استقرار هوش مصنوعی یک شرکت و اهداف تجاری آن است. RAI باید در کنار مسائل اصلی مانند سودآوری و ESG جایگاه برجسته‌ای در دستور کار مدیر عامل داشته باشد. تنها در این صورت است که به بخشی اساسی از مدیریت مستمر ریسک‌های استراتژیک و نوظهور شرکت تبدیل می‌شود.

ما بر این باوریم که هوش مصنوعی مسئول RAI یک قابلیت تجاری استراتژیک است، که مدیر عامل باید دستور کار آن را تعیین کند، و شرکت‌ها باید یک برنامه RAI را از هم اکنون برای کسب مزیت تحول آفرین آغاز کنند.

مواجهه با خطرات متنوع هوش مصنوعی با RAI

عملیاتی کردن کامل RAI فراتر از اصول سطح بالا است. اصولی که با رویکردها و چارچوب‌های حاکمیتی و مدیریت ریسک گسترده‌ ارتباط برقرار می‌کند. برای نمونه، RAI به شرکت‌ها کمک می‌کند تا سؤالات اخلاقی پیچیده پیرامون استقرار هوش مصنوعی و تصمیمات سرمایه‌ گذاری مرتبط را حل کنند. این سؤالات اساسی را تنها می‌توان در بالاترین سطوح توسط رهبران کلیدی کسب‌وکار و ریسک، که در میان آنها مدیر عامل عنصر اصلی است، مطرح کرد.

RAI به شرکت ها کمک می کند تا سوالات پیچیده اخلاقی در مورد استقرار هوش مصنوعی و تصمیمات سرمایه گذاری مرتبط را حل کنند.

بدون RAI، رویکردهای مدیریت ریسک موجود برای محافظت از یک شرکت در برابر طیف خطرات منحصر به فرد هوش مصنوعی کافی نیست. این موارد شامل مسائل مربوط به اعتماد مشتریان به استفاده از فناوری، آزمایش هوش مصنوعی در سازمان، علاقه ذینفعان و ریسک‌های نظارتی است. حال به سراغ تک تکاین موارد رفته و مواجهه با هر یک از آن‌ها را بررسی می‌کنیم.

اعتماد مشتری

اعتماد مشتری هم به هوش مصنوعی و هم به سازمانی که این فناوری را به کار می‌گیرد، هر زمان که نقصی در هوش مصنوعی رخ دهد، از بین می‌رود. برخی از این حوادث آشکار هستند، مانند نقض داده‌ها، اما برخی از آنها بسیار ظریف‌تر هستند. مثلا مشتری که والدینش اخیراً فوت کرده است، بر اساس الگوریتم توصیه، پیشنهادهایی برای هدیه روز پدر دریافت کند.

چنین حوادثی می‌تواند برای افراد و جامعه و همچنین برای شهرت یک شرکت مضر باشد. مصرف کنندگان امروزی در خرید از شرکتی تردید خواهند کرد که به نظر می‌رسد کنترلی بر فناوری خود ندارد یا از ارزش‌هایی مانند انصاف و نجابت محافظت نمی‌کند. این وظیفه مدیر عامل است که به ذینفعان در مورد این حوادث و تأثیرات آنها بر نام تجاری و مالی شرکت پاسخ دهد.

آزمایش هوش مصنوعی

نوآوری در فناوری به قدری سریع پیش می‌رود که به سختی می‌توان هوش مصنوعی را تعریف کرد. در نتیجه، مدیران اغلب کاربردهای آزمایشی را نادیده می‌گیرند و این موجب نادیده گرفتن «هوش مصنوعی سایه» می‌شود. استقرارهایی از هوش مصنوعی که در سطح تیمی یا فردی، با دید کم در شرکتی ظاهر می‌شوند و عملا برای نظارت نامرئی هستند.

در مقابل، آزمایش آن با در دسترس بودن گسترده‌ی هوش مصنوعی سر به فلک خواهد کشید و از تیم به کارمند فردی تغییر یافته و نمونه‌های بیشتری از هوش مصنوعی سایه ایجاد خواهد شد. نمونه‌هایی که شناسایی آن‌ها حتی دشوارتر از نبود کاربردهای آزمایشی است. اما زمانی که این استقرارها منجر به شکست هوش مصنوعی می‌شود، عموم و قانون‌ گذاران اهمیتی نمی‌دهند که این حادثه شامل یک الگوریتم آزمایشی، برنامه‌های کاربردی سایه یا راه‌حل‌های خریداری شده از یک فروشنده باشد.

این شرکت است که مسئول عملیات ایمنی و کارآمدی تمام منابع هوش مصنوعی خود بدون توجه به منبع است.

علاوه بر این، شرکای اکوسیستم باید طبق استانداردهای RAI مشابه شرکت عمل کنند. اگر مدیر عامل اطمینان حاصل نکند که کسب‌وکار، تعاملات هوش مصنوعی خود را مدیریت می‌کند (از جمله نحوه استفاده اشخاص ثالث و چهارم از هوش مصنوعی) ممکن است عواقب ناگواری داشته باشد.

علاقه ذینفعان

هیأت‌ها در پاسخ به علاقه سرمایه‌ گذاران به تعهدات DEI شرکت‌ها برای ممیزی سهام فشار می‌آورند.

DEI: تنوع، برابری و شمول: در محیط کار به سیاست‌ها و رویه‌هایی اطلاق می‌شود که نمایندگی و مشارکت افراد با جنسیت، مذهب، گرایش جنسیو طبقات مختلف را تشویق می‌کند.

این ممیزی‌ها اغلب به نحوه استفاده از هوش مصنوعی در محصولات و فرآیندهای یک شرکت می‌پردازند. نقص‌هایی مانند الگوریتم‌های مغرضانه یا عدم شفافیت و عدم توضیح می‌تواند به اعتبار مدیر عامل نزد هیئت مدیره آسیب برساند. همچنین فقدان RAI می‌تواند سرمایه ‌گذارانی را که می‌خواهند بدانند استقرار هوش مصنوعی، مطابق با بیانیه‌های مسئولیت اجتماعی شرکت است یا نه، را از سرمایه گذاری منصرف کند.

ریسک‌های نظارتی

دولت‌های ملی و محلی در سرتاسر جهان در حال تدوین مقررات و دستورالعمل‌های هوش مصنوعی هستند، از جمله قانون در انتظار هوش مصنوعی اتحادیه اروپا و طرح دفتر سیاست علم و فناوری کاخ سفید برای منشور حقوق هوش مصنوعی. قانون اتحادیه اروپا جریمه‌هایی تا ۶ درصد از درآمد جهانی سالانه یک شرکت را برای تخلفات پیشنهاد می‌کند. مدیران عامل باید از چنین تحریم‌های سنگینی اجتناب کنند و از کسب‌وکار خود در برابر تهدیدات دائمی در حال تغییر محافظت کنند و در عین حال به استفاده از قدرت هوش مصنوعی برای پیگیری اهداف تجاری ادامه دهند.

برخی از سازمان‌ها منتظرند تا قوانین قبل از اجرای RAI محکم شوند. اما انتظار اشتباه است. سرمایه گذاری در فرآیندهای اساسی، مانند شیوه‌های حکمرانی خوب متناسب با هوش مصنوعی، صرف نظر از جهت خاصی که مقررات هوش مصنوعی در پیش می‌گیرند، مرتبط خواهد بود. علاوه بر این، شرکت‌ها می‌توانند انتظار داشته باشند که مقررات جدیدی در سراسر حوزه‌های قضایی، از جمله دولت‌های محلی، بالاخره ایجاد خواهد شد و همین مسئله فرآیند را بسیار مهم خواهد کرد.

بدون دیدگاه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *