در این مقاله به بررسی نمونهای از کاربرد رایانش ابری در فناوری اطلاعات، برگرفته از سایت شرکت رایانش ابری مایکروسافت اژور پرداختهایم.
شرکت ژاپنی ISID، جهت یکپارچهسازی سرویسهای فناوری اطلاعات خود از ابزاری موسوم به TexAlntelligence استفاده میکند.
استفاده از این ابزار، زمان جستجو مطالب را برای کارمندان ISID به طرز چشمگیری کاهش داد.
در دنیای سریع امروزی، این یک مزیت فوقالعاده است. زیرا این راهحل چیزی فراتر از جستجوی کلیدواژهها به روش سنتی بود.
در واقع این ابزار قادر به خواندن مطالب، درک مفاهیم ارزشمند، دستهبندی آنها و جستجو میباشد.
فناوری TexAlntelligence آنچنان قدرتمند عمل کرد که شرکت ISID تصمیم به عرضه آن به بازار گرفت.
در تعاریف آمده است که ISID ارزش مدفون در متن را با استفاده از یادگیری ماشین Azure و PyTorch افزایش میدهد.
پیشینه شرکت ISID
نام ISID برگرفته از عبارت Information Services International-Dentsu به معنای خدمات اطلاعات بین المللی-Dentsu است.
ISID در سال 1975 به عنوان اولین ارائه دهنده خدمات اشتراک زمانی کامپیوتری خصوصی در ژاپن تاسیس شد.
خدمات اشتراک زمانی کامپیوتری یا Computer time-sharing به معنای اشتراکگذاری یک منبع محاسباتی بین بسیاری از کاربران به طور همزمان میباشد.
شرکت ISID حاصل سرمایهگذاری مشترک میان Dentsu ltd، مشهورترین شرکت تبلیغاتی مستقل جهان از نظر درآمد و شرکت جنرال الکتریک (GE) آمریکایی است.
نیاز به TexAIntelligence
بیرون کشیدن ارزش از متون، بهخصوص متنهایی مانند مقالات تحقیقاتی یا اسناد حقوقی، همیشه یک تلاش وقت گیر بوده است.
همه روزه با توجه به افزایش سرعت فناوری در تولید محتوا و تلاش کارمندان در این حوزه، اطلاعات بیشتر و در نتیجه فناوری اطلاعات سختتر میشد.
ISID خود یک نمونه بارز است. زیرا کارمندان آن با چالش رو به رشدی برای جستوجو در دادهها در حین توسعه محصولات جدید مواجه بودند.
به همین منظور ابزار TexAlntelligence، را براساس زیرساخت ابری Microsoft Azure و با استفاده از یادگیری ماشین و چارچوب Pytorch ساختند.
در واقع راهحل TexAIntelligence، از دل نیاز به استخراج سریع حجم وسیعی از متن بدون ساختار و برای دریافت اطلاعات ارزشمند از میان آنها زاده شد.
قبل از این ابزار ،مشکل کاوش در کوهی از اسناد برای یافتن اطلاعات ارزشمند، یا رها کردن متنها بدون طبقهبندی، به دلیل اینکه هیچکس پهنای باند خواندن و طبقهبندی آن را ندارد، بیداد میکرد.
اما امروزه با وجود TexAlntelligence، کارمندان ISID از هوش مصنوعی برای یافتن سوزن در انبار کاه دیجیتال استفاده میکنند.
مدل درک زبان طبیعی برای ژاپنی
اگرچه پیش از این مدلهای درک زبان طبیعی (NLP) در جهان موجود بود، اما ISID به دنبال ساخت یک مدل بهتر برای زبان ژاپنی میگشت.
Google در سال 2018 مدل رمزگذار دوطرفه Transformers BERT را منتشر کرد. BERT برای بیش از 30 زبان آموزش دید، اما در زبان ژاپنی عملکرد خوبی نداشت.
یوتارو اوگاوا (Yutaro Ogawa)، به دنبال ایجاد یک مدل BERT که برای زبان ژاپنی علی الخصوص در حوزه تجارت برآمد و استفاده از PyTorch را بهترین گزینه میدانست.
این شرکت به نوآوری با PyTorch و یادگیری ماشینی Azure روی آورد و اینک با NLP SV پردازش زبان طبیعی محبوب ژاپنی عملکرد خوبی دارد.
با استفاده از ALBERT-sudachi و PyTorch، ایزید به دقت 94.3 درصدی با زمان آموزش یک ساعت و پنج دقیقه و زمان استنتاج چهار دقیقه و سه ثانیه بر روی 1500 سند دست یافت.
ویژگیهای TexAIntelligence
شرکت ISID راهحلهای مالی، تجاری، تولید و فناوری اطلاعات را به شرکتهای مختلف ژاپنی ارائه میدهد. ابزار هوش مصنوعی TexAlntelligence به این روند کمک کرد.
یوجی فوکایا (Yuji Fukaya) بهعنوان مدیر گروه مشاوره هوش مصنوعی در ISID درباره درک منظور مردم در ارتباطات نوشتاری میگوید:
«دادههای بزرگ (Big Data) تبدیل به یک کلمه رایج شده است. ما میخواهیم از هوش مصنوعی و سایر فناوریهای اطلاعاتی برای درک بهتر منظور مردم در ارتباطات نوشتاری و ارائه تصمیمهایی که با قضاوت انسانی هماهنگتر هستند، استفاده کنیم تا ارزش بسیار بیشتری از این دادهها به دست آوریم.»
راه حل TexAIntelligence بر سه ویژگی اصلی استوار است:
- جستجوی تشابه نمایهای که جستجوی تشابه معنایی سند به سند را در سطحی جزئیتر از جستجوی کلیدواژه انجام میدهد.
- طبقهبندی اسناد که با استفاده از آخرین الگوریتمها برای طبقهبندی خودکار اسناد، نمونههای شخصی قابل پیشبینی میسازد.
- خلاصهسازی چند سندی که اسناد مشابه را به گروههایی تقسیم میکند و برای هر کدام یک متن خلاصه ایجاد میکند.
همکاری با شرکت رایانش ابری Azure
استفاده از مدل های BERT معمولاً مشکلاتی مانند نیاز بالا به منابع CPU و GPU برای اجرای مدل های بزرگ را به همراه دارد.
این چالش راه را برای ورود به دنیای رایانش ابری و استفاده از خدمات Microsoft Azure، علی الخصوص ماشینهای یادگیری آن باز کرد.
از میان گزینههای مختلف، فوکایا و تیمش چارچوب یادگیری عمیق PyTorch و پلتفرم ابری و یادگیری ماشین Azure را انتخاب کردند. فوکایا میگوید:
“سایر چارچوبهای یادگیری عمیق و سرویسهای ابری وجود دارند، اما ما فکر میکنیم Azure، Azure Machine Learning و PyTorch بهترین انتخابها هستند زیرا دقت، کارایی، مقیاسپذیری و سرعت توسعه را افزایش میدهند.”
او در اینباره به چند دلیل اشاره میکند:
- جامعه تحقیقاتی قوی PyTorch برای شناسایی آخرین فناوری برای ایجاد مدل ژاپنی شخصی ساز شده NLP، کلیدی بود.
- ISID میتواند از PyTorch Transformers برای ایجاد سریع و کارآمد مدلهای خود استفاده کند، زیرا به راحتی مدلها را در یک ماشین یادگیری دارای چند GPU در Azure اجرا میکند.
- اشکال زدایی یا Trubleshooting این چارچوب آسان است، بنابراین تیم میتواند انرژی خود را روی ایجاد مدلهای دقیق و کارآمد متمرکز کند، بدون اینکه در حل مسائل سخت گرفتار شود.
مزایای استفاده از ابر اژور
برای ایجاد مدلهای بزرگتر و دستیابی به سرعت مورد نیاز برای آنها، ISID روی نسخه A Lite BERT: ALBERT تمرکز کرد.
آموزش هر مدل BERT یک کار معمولی نیست زیرا بار پردازشی بر روی منابع CPU و GPU منابع محاسباتی اکثر سازمان ها را از بین می برد.
فیصل هادیپوترا، دانشمند دیتا در ISID، مشتاق ترکیب PyTorch و یادگیری ماشینی Azure بود.
وی میدانست که برای اجرای TexAIntelligence باید از چندین واحد پردازش گرافیکی (GPU) و سخت افزارهای کامپیوتری به طور همزمان است.
اما اصل مشکل این بود که چگونه میتوان سرور برنامهای که مدل را اجرا میکند و سرور مبتنی بر GPU را به یکدیگر متصل و آنها را کنترل نمود.
Ogawa در اینباره توضیح میدهد:
مشکل دشوار این بود که چگونه هر دو نوع سرور مورد نیاز برای برنامه را کنترل کنیم و از اتصال آنها اطمینان حاصل کنیم.
وی برای حل این مشکل افزود:
ما قابلیتهای MLOps را در یادگیری ماشین Azure پس از مقایسه تعدادی از سرویسها انتخاب کردیم، زیرا استفاده از آن سادهتر است و نیازی به ترکیبهای مختلف OSS یا ابزارهای دیگر ندارد.
نحوه عملکرد TexAIntelligence
شرکت ISID یک زیرساخت مبتنی بر Azure ایجاد کرد که در آن یک کارمند از طریق یک برنامه وب از سیستم اطلاعاتی TexAIntelligence درخواست میکند و در عین حال اسنادی را آپلود میکند.
در پسزمینه، سرور REST API با استفاده از تنظیماتی که کارمند وارد کرده است، یک پروژه آموزشی ایجاد میکند که سپس در پایگاه داده Azure برای PostgreSQL ذخیره میشود.
سپس اسنادی که باید جستجو و طبقه بندی شوند در Azure Blob Storage ذخیره می شوند.
در این مرحله یک «کارگر پس زمینه» با استفاده از Celery ایجاد میشود. فناوریای که برای مدیریت برنامه های طولانی مدت و فشرده دادهها استفاده میشود.
کارگر پس زمینه آن اطلاعات را به فضای کاری Azure Machine Learning جایی که آموزش مدل آغاز میشود، منتقل میکند.
مدار زمانی تکمیل میشود تا مدل آموزش دیده در Blob Storage آپلود شود. سپس زمانی که یک کارمند نیاز به استفاده از آن داشته باشد میتواند آن را دانلود کند.
عرضه TexAIntelligence به بازار
با توجه به قابلیت عظیم مدلهای BERT برای شناسایی سریع و طبقهبندی اطلاعات حیاتی، درک اینکه چرا هر سازمان متوسط یا بزرگی دوست دارد از این فناوری استفاده کند، آسان است.
اما حجم انبوه داده، زمانهای طولانی آموزش، نیاز به قدرت پردازش بالا، و نیاز به دانشمندان داده کمیاب و بسیار آموزشدیده برای اکثر سازمانها بسیار دشوار است.
برای آنها، TexAIntelligence دری را به روی امکانات جدید هیجان انگیز باز می کند.
این راه حل نه تنها قابلیتهای یادگیری ماشینی را که قبلاً در دسترس نبودند، ارائه میکند، بلکه عملکرد فوقالعادهای نیز ارائه میدهد.
Hadiputra در اینباره میگوید:
مدلی که ما برای TexAIntelligence استفاده میکنیم زمان یادگیری را تا 20 درصد کاهش میدهد.
همراه با این واقعیت که میتوانیم اندازه مدل را تا یک دهم اندازه معمول کاهش دهیم، این یک موهبت بزرگ برای کسبوکارها است، زیرا هزینههای ذخیرهسازی و منابع محاسباتی را کاهش میدهد.
فوکایا میگوید:
Azure و PyTorch ابزارهایی هستند که هر کسی می تواند از آنها استفاده کند.” اما ما به عنوان یک مبتکر، این فناوریهای بسیار مؤثر را با دسترسی خود به دانشمندان داده و قدرت محاسباتی عظیم ترکیب میکنیم. بسیاری از شرکتها آن اکوسیستم غنی را ندارند، به همین دلیل است که ما میخواهیم قابلیتهای TexAIntelligence را به مشتریان خود عرضه کنیم.
سرویس های ابری ابر فردوسی
شرکت ابر فردوسی ارائه دهنده سرویسهای ابری متنوع با بهترین قیمت و کیفیت است. از جمله این سرویسها میتوان به:
- سرور ابری
- سرور محاسبات سنگین
- سرور گرافیکی
- سرور ژوپیتر لب
- سرور اختصاصی و…
اشاره کرد. به عنوان مثال میتوانید از سرور ژوپیتر لب این شرکت، برای کاربردهای مشابه در این مقاله بهره برد. جهت آشنایی و یا استفاده کلیک نمایید: