هوش مصنوعی مسئول (RAI) رویکردی برای استقرار سیستمهای هوش مصنوعی است که با اهداف و ارزشهای یک شرکت همسو میشود و در عین حال تأثیرات تجاری متحول کنندهای دارد. از آنجایی که هوش مصنوعی مدلهای کسبوکار را در سراسر جهان مختل میکند، RAI به مدیران عامل توانایی قدرتمندی برای مدیریت ریسکهای این فناوری قدرتمند در حال ظهور را میدهد. پیشتر راهنماییهایی را برای مدیران عامل در مواجهه با انقلاب هوش مصنوعی بررسی و بیان کردیم. حال در این بخش به سراغ استفاده از هوش مصنوعی مسئول، تویط مدیران عامل در سازمانها میرویم.
هوش مصنوعی مسئول (RAI)
هوش مصنوعی بر سرفصلهای کسبوکار، از نوآوریهای پیشگامانه گرفته تا کارایی فرآیند، تسلط دارد؛ بهویژه زمانی که هوش مصنوعی مولد دنیا را در برگرفته است. برنامههایی مانند ChatGPT قول میدهند مدلهای تجاری را مختل کنند و قابلیتهای جدیدی را برای شرکتها در همه جا به ارمغان بیاورند، از جمله آنهایی که قبلاً کاربران بالغ هوش مصنوعی نبودند.
برای استفادهی حداکثری از پتانسیل در حال رشد هوش مصنوعی، سازمانها در حال پرسش، آزمایش و استفاده از منابع متنوع هوش مصنوعی هستند. این تعامل تنها زمانی رشد میکند که شرکتها از هوش مصنوعی برای افزایش انعطاف پذیری و بهینه سازی هزینهها در مواجهه با عدم اطمینان اقتصادی، به طور مداوم استفاده کنند. اما برای اینکه یک سازمان بتواند از مزایای کامل فناوری و در عین حال محدود کردن خطرات آن بهره مند شود، یک نفر باید اطمینان حاصل کند که هوش مصنوعی به طور مسئولانه استفاده میشود. آن یک نفر کسی نیست جز مدیرعامل.
هوش مصنوعی به عنوان یک ابزار مهم در پشتوانهی استراتژیک شرکتها جای خود را باز میکند؛ اما این فناوری نگرانیهای زیادی را به C-suite (بالاترین مدیر سطح سازمان) میدهد.
همه از سرمایه گذاران گرفته تا اعضای هیئت مدیره میخواهند جنبههای منفی بالقوه هوش مصنوعی تحت کنترل باشد و به دنبال پاسخ به مدیر عامل هستند. هیچ فرد بهتری برای پاسخگویی وجود ندارد. استقرار هوش مصنوعی انتخابهای اخلاقی را افزایش میدهد که هرگز واضح نیستند، و مستلزم قضاوتی هستند که اغلب فقط یک مدیر عامل میتواند ارائه یا تسهیل کند. چنین انتخابهایی باید با برخی از مهمترین اولویتهای مدیر عامل، از هدایت اهداف و ارزشهای شرکت گرفته تا تعریف رویکرد کلی آن به نوآوری و مدیریت ریسک، همسو باشد.
هوش مصنوعی مسئول RAI رویکردی برای طراحی، توسعه و استقرار سیستمهای هوش مصنوعی است. این رویکرد با هدف و ارزشهای شرکت همسو است و در عین حال تأثیرات تجاری متحول کنندهای دارد. یک برنامه RAI شامل استراتژی، حاکمیت، فرآیندها، ابزارها و فرهنگ است که برای تعبیه رویکرد در یک سازمان ضروری است. برای مثال، استراتژی RAI، اصولی را که توسط یک نهاد چند رشتهای که بخشی از حکمرانی است را مورد حمایت قرار میدهد. ارزیابی ریسک و راهنماهای توسعهی محصول از جمله فرآیندهای توانمندی هستند که توسط ابزارهایی پشتیبانی میشوند که به تیمهای محصول کمک میکنند خطرات هوش مصنوعی مانند سوگیری را شناسایی کنند. ارتباطات با همهی کارکنان، به توسعه دهندگان هوش مصنوعی و کاربران آن، کمک میکند تا RAI به عنوان بخشی از فرهنگ شرکت القا شود.
RAI به رهبران توانایی قدرتمندی برای مدیریت ریسکهای متعدد هوش مصنوعی میدهد. اما دریافتیم که اکثر شرکتها در اتخاذ و اجرای کامل این رویکرد کند بودهاند. تعهد پایدار به RAI، به رهبری مدیرعامل، کلید موفقیت استقرار هوش مصنوعی یک شرکت و اهداف تجاری آن است. RAI باید در کنار مسائل اصلی مانند سودآوری و ESG جایگاه برجستهای در دستور کار مدیر عامل داشته باشد. تنها در این صورت است که به بخشی اساسی از مدیریت مستمر ریسکهای استراتژیک و نوظهور شرکت تبدیل میشود.
ما بر این باوریم که هوش مصنوعی مسئول RAI یک قابلیت تجاری استراتژیک است، که مدیر عامل باید دستور کار آن را تعیین کند، و شرکتها باید یک برنامه RAI را از هم اکنون برای کسب مزیت تحول آفرین آغاز کنند.
مواجهه با خطرات متنوع هوش مصنوعی با RAI
عملیاتی کردن کامل RAI فراتر از اصول سطح بالا است. اصولی که با رویکردها و چارچوبهای حاکمیتی و مدیریت ریسک گسترده ارتباط برقرار میکند. برای نمونه، RAI به شرکتها کمک میکند تا سؤالات اخلاقی پیچیده پیرامون استقرار هوش مصنوعی و تصمیمات سرمایه گذاری مرتبط را حل کنند. این سؤالات اساسی را تنها میتوان در بالاترین سطوح توسط رهبران کلیدی کسبوکار و ریسک، که در میان آنها مدیر عامل عنصر اصلی است، مطرح کرد.
RAI به شرکت ها کمک می کند تا سوالات پیچیده اخلاقی در مورد استقرار هوش مصنوعی و تصمیمات سرمایه گذاری مرتبط را حل کنند.
بدون RAI، رویکردهای مدیریت ریسک موجود برای محافظت از یک شرکت در برابر طیف خطرات منحصر به فرد هوش مصنوعی کافی نیست. این موارد شامل مسائل مربوط به اعتماد مشتریان به استفاده از فناوری، آزمایش هوش مصنوعی در سازمان، علاقه ذینفعان و ریسکهای نظارتی است. حال به سراغ تک تکاین موارد رفته و مواجهه با هر یک از آنها را بررسی میکنیم.
اعتماد مشتری
اعتماد مشتری هم به هوش مصنوعی و هم به سازمانی که این فناوری را به کار میگیرد، هر زمان که نقصی در هوش مصنوعی رخ دهد، از بین میرود. برخی از این حوادث آشکار هستند، مانند نقض دادهها، اما برخی از آنها بسیار ظریفتر هستند. مثلا مشتری که والدینش اخیراً فوت کرده است، بر اساس الگوریتم توصیه، پیشنهادهایی برای هدیه روز پدر دریافت کند.
چنین حوادثی میتواند برای افراد و جامعه و همچنین برای شهرت یک شرکت مضر باشد. مصرف کنندگان امروزی در خرید از شرکتی تردید خواهند کرد که به نظر میرسد کنترلی بر فناوری خود ندارد یا از ارزشهایی مانند انصاف و نجابت محافظت نمیکند. این وظیفه مدیر عامل است که به ذینفعان در مورد این حوادث و تأثیرات آنها بر نام تجاری و مالی شرکت پاسخ دهد.
آزمایش هوش مصنوعی
نوآوری در فناوری به قدری سریع پیش میرود که به سختی میتوان هوش مصنوعی را تعریف کرد. در نتیجه، مدیران اغلب کاربردهای آزمایشی را نادیده میگیرند و این موجب نادیده گرفتن «هوش مصنوعی سایه» میشود. استقرارهایی از هوش مصنوعی که در سطح تیمی یا فردی، با دید کم در شرکتی ظاهر میشوند و عملا برای نظارت نامرئی هستند.
در مقابل، آزمایش آن با در دسترس بودن گستردهی هوش مصنوعی سر به فلک خواهد کشید و از تیم به کارمند فردی تغییر یافته و نمونههای بیشتری از هوش مصنوعی سایه ایجاد خواهد شد. نمونههایی که شناسایی آنها حتی دشوارتر از نبود کاربردهای آزمایشی است. اما زمانی که این استقرارها منجر به شکست هوش مصنوعی میشود، عموم و قانون گذاران اهمیتی نمیدهند که این حادثه شامل یک الگوریتم آزمایشی، برنامههای کاربردی سایه یا راهحلهای خریداری شده از یک فروشنده باشد.
این شرکت است که مسئول عملیات ایمنی و کارآمدی تمام منابع هوش مصنوعی خود بدون توجه به منبع است.
علاوه بر این، شرکای اکوسیستم باید طبق استانداردهای RAI مشابه شرکت عمل کنند. اگر مدیر عامل اطمینان حاصل نکند که کسبوکار، تعاملات هوش مصنوعی خود را مدیریت میکند (از جمله نحوه استفاده اشخاص ثالث و چهارم از هوش مصنوعی) ممکن است عواقب ناگواری داشته باشد.
علاقه ذینفعان
هیأتها در پاسخ به علاقه سرمایه گذاران به تعهدات DEI شرکتها برای ممیزی سهام فشار میآورند.
DEI: تنوع، برابری و شمول: در محیط کار به سیاستها و رویههایی اطلاق میشود که نمایندگی و مشارکت افراد با جنسیت، مذهب، گرایش جنسیو طبقات مختلف را تشویق میکند.
این ممیزیها اغلب به نحوه استفاده از هوش مصنوعی در محصولات و فرآیندهای یک شرکت میپردازند. نقصهایی مانند الگوریتمهای مغرضانه یا عدم شفافیت و عدم توضیح میتواند به اعتبار مدیر عامل نزد هیئت مدیره آسیب برساند. همچنین فقدان RAI میتواند سرمایه گذارانی را که میخواهند بدانند استقرار هوش مصنوعی، مطابق با بیانیههای مسئولیت اجتماعی شرکت است یا نه، را از سرمایه گذاری منصرف کند.
ریسکهای نظارتی
دولتهای ملی و محلی در سرتاسر جهان در حال تدوین مقررات و دستورالعملهای هوش مصنوعی هستند، از جمله قانون در انتظار هوش مصنوعی اتحادیه اروپا و طرح دفتر سیاست علم و فناوری کاخ سفید برای منشور حقوق هوش مصنوعی. قانون اتحادیه اروپا جریمههایی تا ۶ درصد از درآمد جهانی سالانه یک شرکت را برای تخلفات پیشنهاد میکند. مدیران عامل باید از چنین تحریمهای سنگینی اجتناب کنند و از کسبوکار خود در برابر تهدیدات دائمی در حال تغییر محافظت کنند و در عین حال به استفاده از قدرت هوش مصنوعی برای پیگیری اهداف تجاری ادامه دهند.
برخی از سازمانها منتظرند تا قوانین قبل از اجرای RAI محکم شوند. اما انتظار اشتباه است. سرمایه گذاری در فرآیندهای اساسی، مانند شیوههای حکمرانی خوب متناسب با هوش مصنوعی، صرف نظر از جهت خاصی که مقررات هوش مصنوعی در پیش میگیرند، مرتبط خواهد بود. علاوه بر این، شرکتها میتوانند انتظار داشته باشند که مقررات جدیدی در سراسر حوزههای قضایی، از جمله دولتهای محلی، بالاخره ایجاد خواهد شد و همین مسئله فرآیند را بسیار مهم خواهد کرد.
بدون دیدگاه