نگرانی ها در مورد خطرات بالقوه استفاده از هوش مصنوعی سال هاست که مورد بحث قرار گرفته است. اما مقالات، گزارشات و بررسیهای اخیر در مورد ابزارهای مولد هوش مصنوعی مانند ChatGPT، نشان از طوفانی در کسب و کارها، در عرض چند ماه به راه انداخته است. واقعا چه چیزی تغییر کرده است؟
تغییر بزرگ این است که ابزارهایی مانند ChatGPT در حال دموکراتیک کردن هوش مصنوعی هستند. این نشان دهنده یک تغییر واقعاً اساسی در نحوه استفاده از این ابزارها و تأثیری است که میتوانند داشته باشند.
پیش از این، هوش مصنوعی به طور کلی توسط یک تیم بسیار ماهر از افراد ایجاد میشد. تیمی که شما برای ساخت مدلهای اختصاصی با استفاده از قدرت محاسباتی در مقیاس بزرگ و مجموعههای داده عظیم باید استخدام میکردید. یا ممکن بود نوعی خیلی محدود آن را از یک فروشنده بسیار تخصصی خریده بودید. بیشتر کنترل شده فعالیت میکرد و عمدتا در واکنش به یک چالش یا فرصت شناخته شده به کار میرفت. یا برای برنامههای بسیار خاص و با تعریف محدود استفاده میشد.
اما در حال حاضر، هوش مصنوعی فعال با یادگیری ماشینی داریم که میتواند محتوای بنیادی ایجاد کند. از همه مهمتر که ابزارهای آن در دسترس همه هستند. برای یک مدیر عامل، این میتواند فوق العاده هیجان انگیز باشد. هوش مصنوعی مولد این پتانسیل را دارد که نوآوری را به طور چشمگیری تسریع کند و با حذف بسیاری از کارهای خسته کننده و معمولی که مردم هر روز انجام میدهند، روند کار را کاملاً تغییر دهد.
اما میتواند ترسناک هم باشد؛ چطور؟
خطرات و سوء استفادههایی وجود دارد که پیشتر با آنها آشنا شدهایم؛ خطراتی مانند: تعصب، نقض حریم خصوصی، اطلاعات نادرست، جعل هویت و سرقت مالکیت معنوی فقط چند مورد از آن است. اما اکنون مدیران بیشتری از این خطرات درون سازمان خود آگاه میشوند، زیرا اکنون کارمندان در حال آزمایش و تجربه با هوش مصنوعی مولد هستند. از افرادی شنیدهایم که اطلاعات بسیار محرمانه شرکتهای خود را وارد ابزارهای هوش مصنوعی کردند. آنها در یک سایت خارجی مانند ChatGPT اطلاعات کاری خود را آپلود میکنند برای تولید یک پاورپوینت. یا مثلا یادداشتهایی از یک مکالمه یا جلسه را در یکی از این فضاها و ابزارها آپلود کردهاند برای تهیهی گزارش. همچنین ممکن است مدیران یا کارمندان به اطلاعاتی تکیه کنند که یک ربات هوش مصنوعی به طور قانع کنندهای، به عنوان واقعیتی ارائه میکند که میتواند آنها را به تصمیم گیری بد یا آسیب رساندن سوق دهد.
-
- با آزمایش بیشتر کارمندان از هوش مصنوعی مولد، مدیران بیشتری از خطرات درون سازمان خود آگاه میشوند.
اکنون همه موانع سخت توسعه از بین رفته است. دیگر نیازی به استعداد تخصصی نیست. دیگر نیازی به دادههای اختصاصی، قدرت محاسباتی و یک رابط پیچیده ندارید. ما استدلال میکنیم با این ابزارهای جدید که در دسترس عموم است، احتمالاً دیگر حتی ممکن نیست همه چیزهایی را که با آزمایش و توسعه هوش مصنوعی در کل سازمان شما در حال انجام است، بدانید یا فهرست بندی کنید.
رهبران شرکتها چگونه واکنش نشان میدهند؟
در حال حاضر، مدیران چشمان خود را باز کردهاند. آنها در حال مشاهده مقالات، گزارشات و تحقیقاتی در مورد آنچه که هوش مصنوعی مولد میتواند انجام دهد هستند و معتقداند: ” باید خیلی بیشتر یاد بگیرند.” بنابراین آنها در حال راه اندازی گروههای ضربتی هستند تا هم پتانسیل عظیم هوش مصنوعی را بیابند و درک کنند و هم تهدیداتی که ممکن است برای آنها وجود داشته باشد را درک کنند. اما فکر نمیکنم خیلیها عمق این انقلاب بالقوه، سرعت حرکت آن یا پیامدهای آن را درک کنند. صادقانه باید گفت، نمیتوان مطمئن بود که هنوز کسی این کار را انجام دهد. حدس و گمانهای بی حد و حصر زیادی وجود دارد که ممکن است یا خیلی جاه طلبانه باشند یا به اندازه کافی بلند پروازانه نباشند.
چقدر شرکتها برای کاهش این خطرات آمادگی دارند؟ آیا بیشتر آنها برنامههای هوش مصنوعی مسئول (RAI) ندارند؟
زیرمجموعه کوچکی از شرکتهایی که هوش مصنوعی برای ارائه آنها هسته اصلی است، میگویند که بازار آنلاینی که پیشنهادات شخصیسازی شده ارائه میدهد، جلوتر است. مدیران آنها قدرت هوش مصنوعی را درک میکنند، زیرا در کسب و کارشان نقش اساسی دارد. بنابراین امید آن است که آنها به خوبی بر هوش مصنوعی اخلاق مدار پایه گذاری شوند. اما افراد دیگری هستند که از هوش مصنوعی، برای موارد بسیار خاصتر استفاده میکنند. این بخش از افراد و شرکتها کمتر با RAI آشنا هستند و خطرات آن نیز برایشان بسیار بیشتر است.
در نظرسنجی اخیری که با بررسی مدیریت اسلون از MIT انجام شده است، بیش از ۸۰ درصد پاسخ دهندگان جهانی موافق بودند که RAI باید یک اولویت مدیریت باشد. اما تنها حدود نیمی از آنها در واقع برخی از برنامهها را برای آن اجرا کردهاند. کمتر از ۲۰ درصد هم گفتند که برنامه RAI را به طور کامل اجرا کردهاند.
حدس این است که حتی آن ۲۰ درصد نیز این کار را فقط برای هوش مصنوعی شناخته شده خود انجام دادهاند. کسانی که در شرکتهایشان اختیار کامل هوش مصنوعی مورد استفاده خود را در دست دارند بسیار کم است. به خصوص که هوش مصنوعی گستره زیادی دارد. اخیراً مدیر ریسک سازمانی یک شرکت بیان داشت که داشتن RAI مناسب در پروژههای توسعه هوش مصنوعی موجب، احساس راحتی برای مدیران و شرکتها میشود. چیزی که او را نگران میکرد آن دسته از هوش مصنوعیها است که در مورد قوانین و شرایط آنها نمیداند.
برای یک برنامه موفق RAI چه چیزی لازم است؟
اول از همه، نیازی به ساخت دیوارهای جدید نیست. تمام هدف RAI این است که از قدرت هوش مصنوعی بدون ایجاد آسیب یا منجر به عواقب ناخواسته استفاده کند. بسیاری از این موارد در مورد استفاده از ابزارهای مدیریت ریسک موجود و استفاده از آنها در فناوریهای جدید است. این با روشن بودن اصول اولیه اخلاقی و تعریف چارچوبهای محافظتی شروع میشود.
به عنوان نمونه، ابتدا ممکن است شرکت شما در رابطه با استفاده از هوش مصنوعی که خارج از ارزشهای اصلی شرکت است، «شرایط ممنوعهای» داشته باشد. پس، شما به حاکمیتی مناسب برای کسب و کار خود نیاز دارید. نیاز است فردی در سطح اجرایی داشته باشید که کار تمام وقتش این باشد که اطمینان حاصل کند، اصول هوش مصنوعی مسئول (RAI) هنگام به کارگیری این قابلیتها و ابزارها اعمال میشود. این شخص باید پاسخگو، قابل دسترس و دارای منابع لازم باشد، نه کسی که چند سطح پایینتر است و این کار را به عنوان یک کار جانبی یا نمایش انجام میدهد.
شما همچنین به آموزش زیادی نیاز دارید تا به عنوان یک مدیر، مالک یا رهبر، بتوانید افراد سازمان را درباره دلیل چارچوبها و محدودیتها به هنگام استفاده از هوش مصنوعی قانع و قابل درک کنید. سپس شما به ابزارها و فرآیندهای مناسب برای جلوگیری از خطرات جدی نیاز دارید، مانند کتابخانه کدها، آزمایش و کنترل کیفیت، که تضمین میکند هوش مصنوعی شما همانطور که میخواهید کار میکند.
چگونه هوش مصنوعی مولد روشی را که شرکتها باید با هوش مصنوعی مسئول برخورد کنند تغییر داده است؟
تا همین اواخر، بسیاری از شرکتها احتمالاً به شدت بر روی مدیریت هوش مصنوعی متمرکز بودند. آنها بر این حساب باز کرده بودند تا برنامههای در حال توسعه خود را به جایی برسانند که پیش از عرضه و معرفی آن به دنیا، باعث آسیب نشود. اما تنها این موضوع با هوش مصنوعی مولد، کافی نخواهد بود. شما به هوش مصنوعی مسئول در مورد استروئیدها نیاز دارید.
RAI باید در فرهنگ و ساختار سازمان شما گنجانده شود، از کارکنان سطح پایین که به تازگی جلسهای را با یادداشتهایی برای جمع بندی ترک کردهاند تا رئیس بخش تحقیق و توسعه که در تلاش است از هوش مصنوعی برای ایجاد تحول در توسعه محصول استفاده کند. همچنین شما باید سریع حرکت کنید. بهتر است این طور بگویم، این موضوع به شدت ویژه است و سریع پیش میرود. برای مثال، اگر قبلاً پیامی در مورد استفاده مناسب از خدمات هوش مصنوعی مولد شخص ثالث برای همه کارمندان خود ارسال نکردهاید، بسیار دیر شده است و در معرض خطر هستید. اگر هم اصلاً برنامهای ندارید تا اطمینان حاصل کنید که هوش مصنوعی به طور مسئولانه استفاده میشود، واقعاً در شرف بحران بزرگی هستید.
آیا دولتها روی مقرراتی کار میکنند که به زودی به همهی اینها رسیدگی کند؟
قانون گذاری در سطح منطقهای، ملی و حتی شهری در راه است. اما به جای انتظار برای قانون، شرکتها باید جلوتر از آن باشند. حتی اگر شرکت شما ارزشها و اصول خوبی داشته باشد، اما هیچ کاری انجام ندهد، احتمالاً هنگام استفاده از هوش مصنوعی با این مسائل اخلاقی روبرو خواهید شد. توجه بیش از اندازه به هدف، اجرای هوش مصنوعی مسئول را دشوار میکند. اگر صنعت بتواند RAI را پیادهسازی کند و به روشهای خاصی خود تنظیم کند، میتواند فشار را از مقررات واقعاً سخت گیرانهای که ممکن است اعمال شود، دور کند.
نکته مهم دیگر وجود خطر واکنش شدید است. اگر هوش مصنوعی غیرمسئولانه گسترش یابد و منجر به همه این موارد استفاده منفی شود؛ یا فقط شکست در کنترل کیفیت، قانون گذاران واکنش نشان خواهند داد. آنها میتوانند این ابزار شگفت انگیز را برای نوآوری در نظر بگیرند و آن را خاموش کنند. به همین دلیل است که دریافت سریع RAI بسیار مهم است. این زمانی مهم برای رهبران صنعت است. در واقع، انجام این کار یک ضرورت اخلاقی دارد.
بدون دیدگاه