استفاده از هوش مصنوعی

نگرانی ها در مورد خطرات بالقوه استفاده از هوش مصنوعی سال هاست که مورد بحث قرار گرفته است. اما مقالات، گزارشات و بررسی‌های اخیر در مورد ابزارهای مولد هوش مصنوعی مانند ChatGPT، نشان از طوفانی در کسب و کارها، در عرض چند ماه به راه انداخته است. واقعا چه چیزی تغییر کرده است؟

تغییر بزرگ این است که ابزارهایی مانند ChatGPT در حال دموکراتیک کردن هوش مصنوعی هستند. این نشان دهنده یک تغییر واقعاً اساسی در نحوه استفاده از این ابزارها و تأثیری است که می‌توانند داشته باشند.

پیش از این، هوش مصنوعی به طور کلی توسط یک تیم بسیار ماهر از افراد ایجاد می‌شد. تیمی که شما برای ساخت مدل‌های اختصاصی با استفاده از قدرت محاسباتی در مقیاس بزرگ و مجموعه‌های داده عظیم باید استخدام می‌کردید. یا ممکن بود  نوعی خیلی محدود آن را از یک فروشنده بسیار تخصصی خریده بودید. بیشتر کنترل شده فعالیت می‌کرد و عمدتا در واکنش به یک چالش یا فرصت شناخته شده به کار می‌رفت. یا برای برنامه‌های بسیار خاص و با تعریف محدود استفاده می‌شد.

اما در حال حاضر، هوش مصنوعی فعال با یادگیری ماشینی داریم که می‌تواند محتوای بنیادی ایجاد کند. از همه مهم‌تر که ابزارهای آن در دسترس همه هستند. برای یک مدیر عامل، این می‌تواند فوق العاده هیجان انگیز باشد. هوش مصنوعی مولد این پتانسیل را دارد که نوآوری را به طور چشمگیری تسریع کند و با حذف بسیاری از کارهای خسته کننده و معمولی که مردم هر روز انجام می‌دهند، روند کار را کاملاً تغییر دهد.

اما می‌تواند ترسناک هم باشد؛ چطور؟

خطرات و سوء استفاده‌هایی وجود دارد که پیشتر با آنها آشنا شده‌ایم؛ خطراتی مانند: تعصب، نقض حریم خصوصی، اطلاعات نادرست، جعل هویت و سرقت مالکیت معنوی فقط چند مورد از آن است. اما اکنون مدیران بیشتری از این خطرات درون سازمان خود آگاه می‌شوند، زیرا اکنون کارمندان در حال  آزمایش و تجربه با هوش مصنوعی مولد هستند. از افرادی شنیده‌ایم که اطلاعات بسیار محرمانه شرکت‌های خود را وارد ابزارهای هوش مصنوعی کردند. آن‌ها در یک سایت خارجی مانند ChatGPT اطلاعات کاری خود را آپلود می‌کنند برای تولید یک پاورپوینت. یا مثلا یادداشت‌هایی از یک مکالمه‌ یا جلسه را در یکی از این فضاها و ابزارها آپلود کرده‌اند برای تهیه‌ی گزارش. همچنین ممکن است مدیران یا کارمندان به اطلاعاتی تکیه کنند که یک ربات هوش مصنوعی به طور قانع کننده‌ای، به عنوان واقعیتی ارائه می‌کند که می‌تواند آنها را به تصمیم گیری بد یا آسیب رساندن سوق دهد.

    • با آزمایش بیشتر کارمندان از هوش مصنوعی مولد، مدیران بیشتری از خطرات درون سازمان خود آگاه می‌شوند.

اکنون همه موانع سخت توسعه از بین رفته است. دیگر نیازی به استعداد تخصصی نیست. دیگر نیازی به داده‌های اختصاصی، قدرت محاسباتی و یک رابط پیچیده ندارید. ما استدلال می‌کنیم با این ابزارهای جدید که در دسترس عموم است، احتمالاً دیگر حتی ممکن نیست همه چیزهایی را که با آزمایش و توسعه هوش مصنوعی در کل سازمان شما در حال انجام است، بدانید یا فهرست بندی کنید.

رهبران شرکت‌ها چگونه واکنش نشان می‌دهند؟

در حال حاضر، مدیران چشمان خود را باز کرده‌اند. آنها در حال مشاهده مقالات، گزارشات و تحقیقاتی در مورد آنچه که هوش مصنوعی مولد می‌تواند انجام دهد هستند و معتقداند: ” باید خیلی بیشتر یاد بگیرند.” بنابراین آنها در حال راه اندازی گروه‌های ضربتی هستند تا هم پتانسیل عظیم هوش مصنوعی را بیابند و درک کنند و هم تهدیداتی که ممکن است برای آنها وجود داشته باشد را درک کنند. اما فکر نمی‌کنم خیلی‌ها عمق این انقلاب بالقوه، سرعت حرکت آن یا پیامدهای آن را درک کنند. صادقانه باید گفت، نمی‌توان مطمئن بود که هنوز کسی این کار را انجام دهد. حدس و گمان‌های بی حد و حصر زیادی وجود دارد که ممکن است یا خیلی جاه طلبانه باشند یا به اندازه کافی بلند پروازانه نباشند.

چقدر شرکت‌ها برای کاهش این خطرات آمادگی دارند؟ آیا بیشتر آنها برنامه‌های هوش مصنوعی مسئول (RAI) ندارند؟

زیرمجموعه کوچکی از شرکت‌هایی که هوش مصنوعی برای ارائه آنها هسته اصلی است، می‌گویند که بازار آنلاینی که پیشنهادات شخصی‌سازی شده ارائه می‌دهد، جلوتر است. مدیران آن‌ها قدرت هوش مصنوعی را درک می‌کنند، زیرا در کسب و کارشان نقش اساسی دارد. بنابراین امید آن است که آنها به خوبی بر هوش مصنوعی اخلاق مدار پایه گذاری شوند. اما افراد دیگری هستند که از هوش مصنوعی، برای موارد بسیار خاص‌تر استفاده می‌کنند. این بخش از افراد و شرکت‌ها کمتر با RAI آشنا هستند و خطرات آن نیز برایشان بسیار بیشتر است.

در نظرسنجی اخیری که با بررسی مدیریت اسلون از MIT انجام شده است، بیش از ۸۰ درصد پاسخ دهندگان جهانی موافق بودند که RAI باید یک اولویت مدیریت باشد. اما تنها حدود نیمی از آنها در واقع برخی از برنامه‌ها را برای آن اجرا کرده‌اند. کمتر از ۲۰ درصد هم گفتند که برنامه RAI را به طور کامل اجرا کرده‌اند.

حدس این است که حتی آن ۲۰ درصد نیز این کار را فقط برای هوش مصنوعی شناخته شده خود انجام داده‌اند. کسانی که در شرکت‌هایشان اختیار کامل هوش مصنوعی مورد استفاده خود را در دست دارند بسیار کم است. به خصوص که هوش مصنوعی گستره زیادی دارد‌. اخیراً مدیر ریسک سازمانی یک شرکت بیان داشت که داشتن RAI مناسب در پروژه‌های توسعه هوش مصنوعی موجب، احساس راحتی برای مدیران و شرکت‌ها می‌شود. چیزی که او را نگران می‌کرد آن دسته از هوش مصنوعی‌ها است که در مورد قوانین و شرایط آنها نمی‌داند.

برای یک برنامه موفق RAI چه چیزی لازم است؟

اول از همه، نیازی به ساخت دیوارهای جدید نیست. تمام هدف RAI این است که از قدرت هوش مصنوعی بدون ایجاد آسیب یا منجر به عواقب ناخواسته استفاده کند. بسیاری از این موارد در مورد استفاده از ابزارهای مدیریت ریسک موجود و استفاده از آنها در فناوری‌های جدید است. این با روشن بودن اصول اولیه اخلاقی و تعریف چارچوب‌های محافظتی شروع می‌شود.

به عنوان نمونه، ابتدا ممکن است شرکت شما در رابطه با استفاده از هوش مصنوعی که خارج از ارزش‌های اصلی شرکت است، «شرایط ممنوعه‌ای» داشته باشد. پس، شما به حاکمیتی مناسب برای کسب و کار خود نیاز دارید. نیاز است فردی در سطح اجرایی داشته باشید که کار تمام وقتش این باشد که اطمینان حاصل کند، اصول هوش مصنوعی مسئول (RAI) هنگام به کارگیری این قابلیت‌ها و ابزارها اعمال می‌شود. این شخص باید پاسخگو، قابل دسترس و دارای منابع لازم باشد، نه کسی که چند سطح پایین‌تر است و این کار را به عنوان یک کار جانبی یا نمایش انجام می‌دهد.

شما همچنین به آموزش زیادی نیاز دارید تا به عنوان یک مدیر، مالک یا رهبر، بتوانید افراد سازمان را درباره دلیل چارچوب‌ها و محدودیت‌ها به هنگام استفاده از هوش مصنوعی قانع و قابل درک کنید. سپس شما به ابزارها و فرآیندهای مناسب برای جلوگیری از خطرات جدی نیاز دارید، مانند کتابخانه کدها، آزمایش و کنترل کیفیت، که تضمین می‌کند هوش مصنوعی شما همانطور که می‌خواهید کار می‌کند.

چگونه هوش مصنوعی مولد روشی را که شرکت‌ها باید با هوش مصنوعی مسئول برخورد کنند تغییر داده است؟

تا همین اواخر، بسیاری از شرکت‌ها احتمالاً به شدت بر روی مدیریت هوش مصنوعی متمرکز بودند. آن‌ها بر این حساب باز کرده بودند تا برنامه‌های در حال توسعه خود را به جایی برسانند که پیش از عرضه و معرفی آن به دنیا، باعث آسیب نشود. اما تنها این موضوع با هوش مصنوعی مولد، کافی نخواهد بود. شما به هوش مصنوعی مسئول در مورد استروئیدها نیاز دارید.

RAI باید در فرهنگ و ساختار سازمان شما گنجانده شود، از کارکنان سطح پایین که به تازگی جلسه‌ای را با یادداشت‌هایی برای جمع بندی ترک کرده‌اند تا رئیس بخش تحقیق و توسعه که در تلاش است از هوش مصنوعی برای ایجاد تحول در توسعه محصول استفاده کند. همچنین شما باید سریع حرکت کنید. بهتر است این طور بگویم، این موضوع به شدت ویژه است و سریع پیش می‌رود. برای مثال، اگر قبلاً پیامی در مورد استفاده مناسب از خدمات هوش مصنوعی مولد شخص ثالث برای همه کارمندان خود ارسال نکرده‌اید، بسیار دیر شده‌ است و در معرض خطر هستید. اگر هم اصلاً برنامه‌ای ندارید تا اطمینان حاصل کنید که هوش مصنوعی به طور مسئولانه استفاده می‌شود، واقعاً در شرف بحران بزرگی هستید.

آیا دولت‌ها روی مقرراتی کار می‌کنند که به زودی به همه‌ی اینها رسیدگی کند؟

قانون گذاری در سطح منطقه‌ای، ملی و حتی شهری در راه است. اما به جای انتظار برای قانون، شرکت‌ها باید جلوتر از آن باشند. حتی اگر شرکت شما ارزش‌ها و اصول خوبی داشته باشد، اما هیچ کاری انجام ندهد، احتمالاً هنگام استفاده از هوش مصنوعی با این مسائل اخلاقی روبرو خواهید شد. توجه بیش از اندازه به هدف، اجرای هوش مصنوعی مسئول را دشوار می‌کند. اگر صنعت بتواند RAI را پیاده‌سازی کند و به روش‌های خاصی خود تنظیم کند، می‌تواند فشار را از مقررات واقعاً سخت‌ گیرانه‌ای که ممکن است اعمال شود، دور کند.

نکته مهم دیگر وجود خطر واکنش شدید است. اگر هوش مصنوعی غیرمسئولانه گسترش یابد و منجر به همه این موارد استفاده منفی شود؛ یا فقط شکست در کنترل کیفیت، قانون گذاران واکنش نشان خواهند داد. آنها می‌توانند این ابزار شگفت انگیز را برای نوآوری در نظر بگیرند و آن را خاموش کنند. به همین دلیل است که دریافت سریع RAI بسیار مهم است. این زمانی مهم برای رهبران صنعت است. در واقع، انجام این کار یک ضرورت اخلاقی دارد.

بدون دیدگاه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *