ترجمه 16 - دسته بندی شبکه تصویر با شبکه های عصبی عمیق کانولوشن
ImageNet Classification with Deep Convolutional Neural Networks
دسته بندی شبکه تصویر با شبکه های عصبی عمیق کانولوشن
فرمت ترجمه مقاله : word – قابل ویرایش
تعداد صفحات ترجمه مقاله به همراه پاسخ به سوالات : 48 صفحه
رعایت تمام قوانین نگارشی و دارای فهرست اشکال،جداول و محتوا
سال چاپ مقاله : 2012
قیمت : 29000 تومان
این فایل علاوه بر ترجمه به سوالات زیر در باب مقاله مذکور پاسخ میدهید:
8-1 مقاله دقیقا چی مساله ای را میخواهد حل کند؟
8-2 چه جنبه این مساله جنبه مهمی است؟ چرا؟
8-3 راه حل های قبلی چه هستند؟
8-4 مشکلات راه حلهای قبلی چیست و چرا ناکافی هستند؟
8-5 راه حل پشنهادی چیست؟
8-6 چگونه راه حل طراحی و پیاده سازی شده است؟
8-7 چرا این راه حل کار خواهد کرد و بهتر از راه حل های قبلی خواهد بود؟
8-8 فرضیات بکار رفته چه هستند؟ این فرضیات چقدر واقع گرایانه هستند؟
8-9 روش پشنهادی چگونه ارزیابی شده است؟
8-10 ارزش راه حل چگونه اثبات شده است؟
8-11 نتایج اصلی مقاله چه هستند؟
8-12 نتایج چقدر نسبت به فرضیات حساس هستند؟
8-13 روندهای آتی این کار تحقیقاتی از نظر نویسندگان چیست؟
8-14 در نگاه کلی، این مقاله چه چیزی به ما میدهد؟
8-15 نقاط قوت کار از نظر شما کدامند؟در ایده اولیه، در راه حل، و در ارزیابی؟
8-16 نقاط ضعف کار از نظر شما کدامند؟
8-17 شما چه جهت هایی برای ادامه کار می بینید؟
8-18 چه سوالاتی در مورد مقاله به ذهن شما می آید؟
چکیده
ما یک شبکه عصبی عمیق کانولوشن و بزرگ برای طبقه بندی 1.2 میلیون تصویر با وضوح بالا در رقابت LSVRC-2010 شبکه تصویر به 1000 دسته متفاوت آموزش داده ایم. در داده های آزمایشی، ما به نرخ خطاهای بالاترین و 5 تا بالاترین رسیدیم که به طور قابل ملاحظه ای بهتر از روشهای مطرح قبلی می باشد. شبکه عصبی، که 60 میلیون پارامتر و 650 هزار سلول عصبی دارد شامل پنج لایه کانولوشن می باشد، که برخی از آنها توسط لایه های مکس-پولینگ[1] و سه لایه اتصالات کامل با یک تابع فعالیت سافت مکس[2] 1000-مسیره همراه شده اند. برای سریع بخشیدن به مرحله آموزش، ما از سلول عصبی های غیر اشباع و پیاده سازی واحد پردازنده گرافیکی بسیار کارآمد از عملکرد کانولوشن استفاده کردیم. برای کاهش اوورفیت[3] شدن در لایههای با اتصالات کامل، ما یک روش تنظیم که به تازگی توسعه یافته را بکار می بریم که "دراپ آوت[4]" نامیده شده و ثابت کرده است بسیار موثر می باشد. ما همچنین انواع مختلفی از این مدل را در رقابت ILSVRC-2012 وارد کرده ایم و به 5 بالاترین نرخ خطای آزمایش 15.3 درصد در مقایسه با 26.2 بدست آمده با دومین بهترین دست یافته ایم.
[1] max-pooling
[2] Softmax
[3] Overfitting
[4] Dropout