هوش مصنوعی در دسترس پایگاه گسترده کاربران

به گزارش جهان صنعت نیوز: سال پرهیاهو و شلوغ ۲۰۲۰ بسیاری از صاحبان صنایع را در مورد آینده پیش رو به فکر فرو برده است. اواخر هر سال، پیش‌بینی‌های زیادی را از طرف مدیران صنعت و تحلیلگران صنعت و تحلیلگران داده ارایه می‌شود که مربوط به سال آینده است. امسال، این پیش‌بینی‌ها سندی ۴۹ صفحه‌ای از بیش از ۳۰ شرکت است. مرکز ملی فضای مجازی در مقاله خود خلاصه‌ای از پیش‌بینی‌ها پیرامون سال ۲۰۲۱ وجود دارد که به مباحثی اختصاص یافته که بیشترین حدس‌ها را به خود اختصاص داده که بخشی از آن مربوط به هوش مصنوعی است.


در سال جاری تعداد زیادی از پیش‌بینی‌ها در مورد هوش مصنوعی و یادگیری ماشین (ML) بوده است. در واقع پیش‌بینی‌ها در این باره آنقدر زیاد بود که خود به چند زیر مجموعه قابل توجه تقسیم می‌شوند. یک مجموعه از پیش‌بینی‌ها به چگونگی دموکراتیک شدن، در دسترس بودن، مقرون به صرفه بودن و بالغ شدن هوش مصنوعی متمرکز است.

بورگمن از Starburst می‌گوید: هوش مصنوعی و یادگیری ماشین، برای پایگاه گسترده‌تری از کاربران در دسترس خواهد بود. اگرچه زمینه‌های دانش داده برای بهره‌گیری از هوش مصنوعی تاکنون ضروری بوده است، اما این روند تغییر می‌کند و به سمتی می‌رود که شامل هر کسی در سازمان که برای تصمیم‌گیری هوشمندتر به دسترسی به داده احتیاج دارد، شود.

الکس پینا، مهندس ارشد تحقیق و توسعه در Linode، فکر می‌کند که اقتصاد هوش مصنوعی نیز قابلیت دسترسی آن را بهبود می‌بخشد و می‌گوید: با کاهش هزینه خدمات GPU ابری، مشاغل کوچک‌تر می‌توانند از هوش مصنوعی استفاده کنند. رایان ویلکینسون، مدیر ارشد فناوری در IntelliShift، موافق است و اظهار می‌کند: با رسیدن سخت‌افزار به نقطه‌ای که از هوش مصنوعی پشتیبانی کند، نرم‌افزارهای ML و AI که در فضای ابری اجرا می‌شوند سریعتر از هر زمان دیگر به بلوغ می‌رسند.

رایوهی فوجیماکی، بنیانگذار و مدیرعامل dotData، یادگیری ماشین خودکار (AutoML) را عامل دیگری برای دستیابی به هوش مصنوعی برای دانشمندان در حوزه‌های دیگر غیر از داده می‌داند و پیش‌بینی می‌کند: در سال ۲۰۲۱ ما شاهد افزایش AutoML 2.0 خواهیم بود که پلتفرم‌های “بدون کد” را به سطح بعدی می‌رسانند. فوجیماکی همچنین احساس می‌کند که AutoML به فراتر بردن موارد استفاده از تجزیه و تحلیل‌های پیش‌بینی کننده کمک خواهد کرد، زیرا همچنین می‌تواند بینش ارزشمندی از روندها، رویدادها و اطلاعات گذشته ارائه دهد که به کسب‌وکارها اجازه می‌دهد تا مجهولات ناشناخته، روندها و الگوهای داده‌ای که مهم هستند، اما هیچ‌کس به درست بودن آن‌ها شک نکرده است را کشف کنند.

هوش مصنوعی مسئولیت‌پذیر و اخلاقی

یکی دیگر از موضوعات مهم، موضوع مسئولیت‌پذیری و اهمیت عمومی اعتماد و توضیح‌پذیری در مدل‌های AI / ML است. امی هودلر، مدیر تجزیه و تحلیل نمودارها و برنامه‌های هوش مصنوعی در Neo4j، می‌گوید: اگرچه بحث در مورد هوش مصنوعی مسئولانه به دلیل همه‌گیری متوقف شده است، اما نیاز به هوش مصنوعی مسئولانه تغییر نکرده و نیاز به شروع بحث عمومی مثل همیشه مهم است.

روملیوتیس از اوریلی در مورد پیشرفت محدود پیشین و چگونگی فعالیت‌های عمده آن در سال ۲۰۲۱ با چنین آرایشی موافق است: تا کنون، استفاده شرکت‌های بزرگ از ML مسئولیت‌پذیر در بهترین حالت متوسط و واکنشی بوده است. در سال آینده، افزایش مقررات (مانند  GDPR و CCPA)، ضدانحصاری و سایر نیروهای قانونی شرکت‌ها را مجبور به اتخاذ رویه‌های مسئولانه‌تر در ML خواهد کرد. نیک الپرین، مدیرعامل شرکت آزمایشگاه دومینو، از همین منظر نظراتش را بیان کرده است: استانداردهای حفظ حریم خصوصی که به سرعت در حال تحول هستند و اولین بار با GDPR و اکنون CCPA در کالیفرنیا مشاهده می‌شوند، در سال ۲۰۲۱ نیاز به توجه به شفافیت و امنیت بیشتر مدل‌های هوش مصنوعی خواهد داشت.

بدون رویکرد هوش مصنوعی مسئولانه، اعتماد به C-Suite و اعضای تیم برای مدل‌های هوش مصنوعی که در حال طراحی آن هستند دشوار می‌شود و بدون این اعتماد، استفاده از هوش مصنوعی برای منافع تجاری تقریباً غیرممکن است. جوآو اولیویرا، مدیر راه حل‌های تجاری در SAS، می‌گوید: “هرچه دید تصمیم گیرندگان برای نتایج هوش مصنوعی بیشتر باشد، اعتماد بیشتری به تصمیماتی که توسط مدل‌ها گرفته می‌شود، دارند. اعتمادپذیری به سمت به کارگیری و استفاده می‌انجامد. نظارت انسان و توضیح مدل‌ها در هر مرحله از یک فرآیند تصمیم‌گیری، باعث پذیرش هوش مصنوعی و تصمیم گیری خودکار می‌شود.

سانتیاگو ژیرالدو، مدیر ارشد بازاریابی محصولات Cloudera در یادگیری ماشین، نه تنها موافق است، بلکه ادامه می‌دهد که، برای تجارت، به کارگیری هوش مصنوعی به این ترتیب از نظر وجودی ضروری است. وی اینگونه بیان می‌کند: در سال ۲۰۲۱، توانایی یک کسب و کار در جلب اعتماد به مدل خود – تا حدی که بتوانند بر اساس بینش ناشی از هوش مصنوعی خود عمل کنند – تعیین کننده بقای آن‌ها خواهد بود.

سندی مایک، معاون اصلی راه‌حل‌های صنعتی به عنوان یکی دیگر از مدیران Cloudera می‌گوید: در ۱۲ تا ۲۴ ماه آینده خواهیم دید که هوش مصنوعی اخلاقی در مرکز توجه قرار می‌گیرد. بینا آمانات، مدیر اجرایی موسسه هوش مصنوعی Deloitte فکر می‌کند ۲۰۲۱ سال عملیاتی برای اخلاق هوش مصنوعی خواهد بود و می‌گوید: امکان اعتماد به سیستم‌های AI در مرکز هر مکالمه AI است. امانات احساس می‌کند که شرکت‌ها در تصمیم گیری درباره ابعاد اخلاقی استراتژی‌های هوش مصنوعی خود شروع به کار می‌کنند و مدل‌های هوش مصنوعی را که می‌توانند برای پیامدهای اخلاقی تحت عنوان MLOps اداره شوند، به کار می‌گیرند. در واقع، گزارش اجرایی سالانه فناوری RELX تائیدیه‌ای را برای این امر تأیید می‌کند و می‌گوید: از هر ۱۰ رهبر تجاری بیش از ۸ نفر معتقدند که ملاحظات اخلاقی یک اولویت استراتژیک در طراحی و اجرای سیستم‌های هوش مصنوعی آن‌ها است.

دومینو داتا لبس الپرین، با نادیده گرفتن خطر هوش مصنوعی اخلاقی، پیش بینی می‌کند که در سال ۲۰۲۱، ما آگاهی گسترده‌تری از صنایع راجع به پیامدهای حقوقی و خطرات تصمیمات خودکار خواهیم دید. ممکن است دعاوی عمومی مربوط به تبعیض یا مسئولیت را که شامل تصمیمات گرفته شده توسط مدل‌های هوش مصنوعی است را ببینیم. اما همه پیش‌بینی‌ها به سمت نابودی و تاریکی نیست.

جیمز کینگستون، معاون همکاری و تحقیقات نوآوری، محقق هوش مصنوعی و مدیر HAT-LAB در Dataswift، مقداری هویج در انت‌های این چوب گذاشته و توضیح می‌دهد که برای مقیاس‌گذاری برای آینده با ترکیب اصول اخلاقی، سازگاری و حفظ حریم خصوصی با زیرساخت‌های فناوری ساخته شده، جامعه به سمت سیستمی حرکت خواهد کرد که ارزش داده‌ها به نفع افراد و بنگاه‌های اقتصادی باشد.

اخبار برگزیدهخواندنیدانش و فناوری
شناسه : 165709
لینک کوتاه :
دکمه بازگشت به بالا