راخنمای مدیران عامل برای استفاده از هوش مصنوعی

برای مدیران عامل، هوش مصنوعی مولد یک چالش بسیار بزرگتر است. تمرکز امروز ممکن است بر دستاوردهای بهره‌وری و محدودیت‌های فنی باشد، اما انقلابی در نوآوری مدل کسب و کار در راه است. هوش مصنوعی مولد این پتانسیل را دارد که در هر صنعتی تغییری ایجاد کند. این تغییر هم مزیت رقابتی و هم تخریب خلاقانه را نوید می‌دهد. در بخش نخست دیدیم که مدیران عامل باید بر این تمرکز کنند که هوش مصنوعی مولد چگونه بر سازمان‌ها و صنایع آنها تأثیر می‌گذارد؛ و چه انتخاب‌های استراتژیکی آنها را قادر می‌سازد تا از فرصت‌ها بهره‌برداری کرده و چالش‌ها را مدیریت کنند. همچنین دیدیم که این انتخاب‌ها بر سه رکن کلیدی متمرکز شده‌اند: ۱ـ پتانسیل -۲- افراد -۳- سیاست

در بخش نخست پتانسیل را بصورت مفصل و کامل بررسی کردیم و تمامی بخش‌ها و روش‌های آن را دیدم. حال در این بخش به سراغ دو مورد دیگر یعنی افراد و سیاست می‌رویم.

افراد: نیروی کار خود را آماده کنید.

هوش مصنوعی مولد یک نیروی مخرب برای انسان است. در کوتاه مدت، مدیران عامل باید با تیم‌های رهبری خود و همچنین رهبران منابع انسانی کار کنند تا تعیین کنند که این تحول چگونه باید در سازمانشان آشکار شود. باز تعریف نقش‌ها و مسئولیت‌های کارکنان و تنظیم مدل‌های عملیاتی بر این اساس.

نقش‌ها و مسئولیت‌ها را دوباره تعریف کنید

برخی از تغییرات مرتبط با هوش مصنوعی قبلاً رخ داده است. هوش مصنوعی سنتی و الگوریتم‌های یادگیری ماشینی، که از منطق یا آمار قدرتمند برای تجزیه و تحلیل داده‌ها، خودکار سازی یا تقویت تصمیم‌گیری استفاده می‌کنند، افراد را قادر می‌سازد تا مستقل‌تر کار کنند و مدیران بتوانند به طور فزاینده‌ای بر پویایی و هدف تیم تمرکز کنند.

اکنون هوش مصنوعی مولد، در ظرفیت خود به عنوان یک تولید کننده محتوای پیش نویس، نقش‌ زیادی را در افزایش بهره‌وری، عملکرد و خلاقیت دارد. کارمندانی که دارای نقش‌های اداری بیشتری هستند، مانند مشاوران حقوقی و بازاریابان، می‌توانند از هوش مصنوعی مولد برای تدوین اولیه‌ی پیش‌نویس‌ها استفاده کنند و به آن‌ها اجازه می‌دهد زمان بیشتری را صرف اصلاح محتوا و شناسایی راه‌حل‌های جدید کنند. کد گذاران قادر خواهند بود بر فعالیت‌هایی مانند بهبود کیفیت کد در زمان بندی‌های فشرده و اطمینان از رعایت الزامات امنیتی تمرکز کنند.

البته این تغییرات نمی‌تواند (و نباید) در خلاء اتفاق بیفتد. مدیران عامل باید از تأثیری که هوش مصنوعی بر رفاه عاطفی و هویت حرفه‌ای کارکنان می‌گذارد آگاه باشند. بهبود بهره‌وری اغلب با کاهش کارکنان ترکیب می‌شود و هوش مصنوعی در حال حاضر این نگرانی را در بین کارمندان برانگیخته است. بسیاری از فارغ التحصیلان دانشگاهی معتقدند هوش مصنوعی در چند سال آینده شغل آنها را بی‌معنا می‌کند. اما این امکان نیز وجود دارد که هوش مصنوعی به همان اندازه که تغییر همراه دارد، شغل نیز ایجاد می‌کند.

بنابراین تأثیر هوش مصنوعی یک موضوع مهم در فرهنگ و نیروی کار است. از این رو مدیران عامل باید با منابع انسانی همکاری کنند تا بفهمند نقش‌های مختلف چگونه تکامل خواهند یافت. همانطور که ابتکارات هوش مصنوعی در حال گسترش است، بررسی‌های منظم باید دائما نبض و احساسات کارکنان ردیابی کند.

مدیران عامل همچنین باید یک ابتکار مدیریت تغییر شفاف ایجاد کنند که هم به کارکنان کمک می‌کند تا همکاران جدیدشان یعنی هوش مصنوعی را بپذیرند و هم اطمینان حاصل شود که کارمندان استقلال خود را حفظ می‌کنند. این پیام باید از جانب افراد دریافت شود که انسان‌ها به جایی نمی‌روند و در واقع برای استقرار موثر و اخلاقی هوش مصنوعی مورد نیاز هستند.

با تسریع پذیرش هوش مصنوعی، مدیران عامل باید در حین حرکت یاد بگیرند و از آن درس‌ها برای توسعه یک طرح نیروی کار استراتژیک استفاده کنند. در واقع، آنها باید از هم‌ اکنون شروع به ایجاد این طرح کنند و با تکامل فناوری آن را تطبیق دهند. این چیزی بیش از تعیین چگونگی تغییر و شرح وظایف خاص است. از جمله سؤالاتی که مدیران عامل باید هنگام ارزیابی نقاط قوت، ضعف و اولویت‌های شرکت خود بپرسند:

  • رهبران پروژه به چه شایستگی‌هایی نیاز دارند تا اطمینان حاصل کنند که کار تک تک مشارکت کنندگان از کیفیت کافی برخوردار است؟
  • مدیران عامل چگونه می‌توانند منحنی تجربه‌ی، بهینه‌ای را برای تولید استعدادهای آینده ایجاد کنند. به عنوان مثال، اطمینان حاصل شود که کارکنان سطوح پایین‌تر بتوانند مهارتشان را در زمینه‌ی هوش مصنوعی تقویت کنند و سرپرستان برای رهبری نیروی کار با هوش مصنوعی آماده هستند؟
  • چگونه باید آموزش و استخدام برای ایجاد نیروی کار با عملکرد بالا در حال حاضر و در آینده تنظیم شود؟

سیاست‌ها: از کسب و کار خود محافظت کنید

هوش مصنوعی مولد فاقد یک تابع حقیقت معتبر است، به این معنی که نمی‌داند چه زمانی اطلاعات واقعاً نادرست است. پیامدهای این ویژگی که به آن «توهم» نیز گفته می‌شود، می‌تواند از خطاهای طنز آمیز تا خطاهای مخرب یا خطرناک متغیر باشد. اما هوش مصنوعی مولد خطرات حیاتی دیگری نیز برای شرکت‌ها به همراه دارد، از جمله نقض حق انتشار و چاپ. نشت داده‌های اختصاصی؛ و عملکرد برنامه ریزی نشده‌ای که پس از انتشار محصول کشف می‌شود، همچنین به عنوان overhang قابلیت شناخته می‌شود. برای مثال، Riffusion از یک مدل متن به تصویر، Stable Diffusion، برای ایجاد موسیقی جدید با تبدیل داده‌های موسیقی به طیف نگار استفاده می‌شود.

برای ریسک آماده شوید

شرکت‌ها به سیاست‌هایی نیاز دارند که به کارمندان کمک می‌کند تا با خیال راحت هوش مصنوعی مولد را آزمایش کنند و استفاده از آن را به مواردی محدود کنند که عملکرد آن در چارچوب‌های مشخص شده به خوبی قرار داشته باشد. با این حال، ردیابی همه‌ی آزمایش‌ها در سراسر سازمان و اجتناب از «آزمایش‌های حاشیه‌ای» که خطر افشای اطلاعات حساس را دارند، مهم است. این خط‌ مشی‌ها همچنین باید مالکیت داده‌ها را تضمین کنند، فرآیندهای بازبینی را برای جلوگیری از انتشار محتوای نادرست یا مضر ایجاد کنند، و از داده‌های اختصاصی شرکت و مشتریانش محافظت کنند.

یکی دیگر از ضروریات کوتاه مدت این است که به کارکنان آموزش دهید چگونه از هوش مصنوعی مولد در محدوده تخصص خود استفاده کنند. ویژگی‌های کم‌ کد و بدون کد هوش مصنوعی مولد ممکن است باعث شود کارمندان نسبت به توانایی‌شان برای انجام کاری که فاقد پیش‌ زمینه یا مهارت‌های لازم هستند، بیش از حد اعتماد به نفس داشته باشند. برای نمونه، کارکنان بازاریابی ممکن است وسوسه شوند که قوانین فناوری اطلاعات شرکت را دور بزنند و برای ساخت یک ابزار بازاریابی جدید کد بنویسند.

به گفته مرکز امنیت سایبری دانشگاه نیویورک، حدود ۴۰ درصد از کدهای تولید شده توسط هوش مصنوعی ناامن است، و از آنجا که اکثر کارمندان صلاحیت ارزیابی آسیب ‌پذیری‌های کد را ندارند، خطر امنیتی قابل توجهی ایجاد می‌کند. بر اساس مطالعه دانشگاه استنفورد، کمک هوش مصنوعی در نوشتن کد همچنین یک ریسک کیفیت ایجاد می‌کند. زیرا کدنویس‌ها می‌توانند بیش از حد به توانایی هوش مصنوعی برای جلوگیری از آسیب پذیری‌ها اعتماد کنند.

بنابراین، رهبران و مدیران باید همه کارمندان، به‌ویژه کدنویس‌ها را تشویق کنند تا نسبت به محتوای تولید شده توسط هوش مصنوعی شک و تردید داشته باشند. خط مشی شرکت باید حکم کند که کارمندان فقط از داده‌هایی استفاده کنند که کاملاً درک می‌کنند. همچنین تمام محتوای تولید شده توسط هوش مصنوعی به طور کامل توسط صاحبان داده بررسی شود. برنامه‌های کاربردی هوش مصنوعی (مانند بینگ چت) قبلاً اجرای توانایی مرجع داده‌های منبع را آغاز کرده‌اند و این عملکرد را می‌توان برای شناسایی صاحبان داده‌ها گسترش داد.

از کیفیت و امنیت اطمینان حاصل کنید

رهبران می‌توانند توصیه‌های موجود در مورد انتشار مسئولانه برای محتوا ارائه دهند. آنها باید مستندات قوی را اجباری کنند و یک هیئت بازبینی سازمانی را برای بررسی ملاحظات پیشینی تأثیر، مشابه فرآیندهای انتشار تحقیقات علمی تشکیل دهند. صدور مجوز برای استفاده‌های پایین دستی، مانند مجوز هوش مصنوعی مسئول (RAIL)، نیز مکانیزم دیگری برای مدیریت عدم وجود تابع حقیقت در هوش مصنوعی است.

در نهایت، رهبران باید کارکنان را نسبت به استفاده از چت ربات‌های عمومی برای اطلاعات حساس هشدار دهند. تمام اطلاعات تایپ شده در ابزارهای هوش مصنوعی مولد ذخیره شده و برای ادامه آموزش مدل استفاده می‌شود. حتی مایکروسافت که سرمایه گذاری قابل توجهی در هوش مصنوعی مولد انجام داده است، به کارمندان خود هشدار داده است که داده‌های حساس را با ChatGPT به اشتراک نگذارند.

امروزه، شرکت‌ها راه‌های کمی برای استفاده از LLM بدون افشای داده‌ها دارند. یکی از گزینه‌های حفظ حریم خصوصی داده‌ها، ذخیره مدل کامل در محل یا سرور اختصاصی است. (BLOOM، یک مدل منبع باز از گروه BigScience Hugging Face، به اندازه GPT-3 است اما تنها به 512 گیگابایت فضای ذخیره سازی نیاز دارد.) با این حال، ممکن است توانایی استفاده از راه حل‌های پیشرفته را محدود کند. فراتر از اشتراک گذاری داده‌های اختصاصی، نگرانی‌های دیگری نیز در هنگام استفاده از LLM وجود دارد، از جمله حفاظت از اطلاعات قابل شناسایی شخصی. رهبران باید از تکنیک‌های پاکسازی مانند شناسایی نهادهای نام‌گذاری شده برای حذف نام افراد، مکان‌ها و سازمان‌ها استفاده کنند. همانطور که LLM ها بالغ می شوند، راه حل‌های محافظت از اطلاعات حساس نیز پیچیده‌تر می‌شوند؛ و مدیران عامل باید به طور منظم پروتکل‌ها و خط مشی‌های امنیتی خود را به روز کنند.

هوش مصنوعی مولد فرصت‌های بی‌سابقه‌ای را ارائه می‌دهد. اما همچنین مدیران عامل را مجبور می‌کند تا با ناشناخته‌های بزرگ دست و پنجه نرم کنند و این کار را در فضایی انجام دهند که ممکن است احساس ناآشنا یا ناراحتی کند. ایجاد یک رویکرد استراتژیک موثر برای هوش مصنوعی مولد می‌تواند به تشخیص سیگنال از نویز کمک کند. رهبرانی که آماده تجسم مجدد مدل‌های کسب و کار خود هستند، شناسایی فرصت‌های مناسب، سازماندهی نیروی کار و مدل‌های عملیاتی برای حمایت از نوآوری مولد هوش مصنوعی و اطمینان از اینکه آزمایش‌ها به قیمت امنیت و اخلاق تمام نمی‌شود، می‌توانند مزیت رقابتی طولانی مدتی را ایجاد کنند.

بدون دیدگاه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *