وبلاگ دیجی پروژه

پروژه و ترجمه های هوش مصنوعی

وبلاگ دیجی پروژه

پروژه و ترجمه های هوش مصنوعی

وبلاگ دیجی پروژه

دیجی پروژه را در کانال تلگرام دیجی پروژه دنبال نمایید
https://telegram.me/DigiProjects

آخرین نظرات

۴۶ مطلب در فروردين ۱۳۹۵ ثبت شده است

۲۰
فروردين

 A Dynamically Configurable Coprocessor for Convolutional Neural Networks

پردازنده کمکی پویای قابل تنظیم برای شبکه های عصبی کانولوشن

فرمت ترجمه مقاله : word – قابل ویرایش

تعداد صفحات ترجمه مقاله به همراه پاسخ به سوالات : 47 صفحه

رعایت تمام قوانین نگارشی و دارای فهرست اشکال،جداول و محتوا

سال چاپ مقاله : 2013

دانلود اصل مقاله – رایگان

قیمت : 29000 تومان

این فایل علاوه بر ترجمه به سوالات زیر در باب مقاله مذکور پاسخ میدهید:

۸-۱ مقاله دقیقا چی مساله ای را میخواهد حل کند؟

۸-۲ چه جنبه این مساله جنبه مهمی است؟ چرا؟

۸-۳ راه حل های قبلی چه هستند؟

۸-۴ مشکلات راه حلهای قبلی چیست و چرا ناکافی هستند؟

۸-۵ راه حل پشنهادی چیست؟

۸-۶ چگونه راه حل  طراحی و پیاده سازی شده است؟

۸-۷ چرا این راه حل کار خواهد کرد و بهتر از راه حل های قبلی خواهد بود؟

۸-۸ فرضیات بکار رفته چه هستند؟ این فرضیات چقدر واقع گرایانه هستند؟

۸-۹ روش پشنهادی چگونه ارزیابی شده است؟

۸-۱۰ ارزش راه حل چگونه اثبات شده است؟

۸-۱۱ نتایج اصلی مقاله چه هستند؟

۸-۱۲ نتایج چقدر نسبت به فرضیات حساس هستند؟

۸-۱۳ روندهای آتی این کار تحقیقاتی از نظر نویسندگان چیست؟

۸-۱۴ در نگاه کلی، این مقاله چه چیزی به ما میدهد؟

۸-۱۵ نقاط قوت کار از نظر شما کدامند؟در ایده اولیه، در راه حل، و در ارزیابی؟

۸-۱۶ نقاط ضعف کار از نظر شما کدامند؟

۸-۱۷ شما چه جهت هایی برای ادامه کار می بینید؟

۸-۱۸ چه سوالاتی در مورد مقاله به ذهن شما می آید؟

چکیده

برنامه ­های کاربردی شبکه­های عصبی کانولوشن (CNN) برنامه ­هایی هستند که از شناسایی و استدلال (مانند شناسایی دست خط، شناسایی حالت چهره و نظارت فیلم­ها) تا برنامه­ های هوشمند متنی مثل تحلیل فنی شماتیک و برنامه ­های پردازش زبان طبیعی را شامل می­شوند. دو مشاهده کلیدی باعث ساختن طرحی جدید برای CNN شد؛ اول، بارِ کاری CNN، مخلوطی وسیع از سه نوع موازی­سازی را ارائه داده است: موازی­ سازی درون یک عملیات کانولوشن، موازی­ سازی در داخل-خروجی که در آن چندین منابع ورودی (ویژگی­ها) ترکیب می­شوند تا یک خروجی واحد بسازند، و موازی ­سازی بین-خروجی که در آن چندین خروجی (ویژگی) مستقل، همزمان محاسبه می­شوند. بارهای کاری در برنامه ­های مختلف CNN و لایه ­های متفاوت CNN، تفاوت چشم­گیری دارند. دوما، تعداد المان­های محاسبه در یک معماری، نسبت به پهنای باند خارج از حافظه (pin-count) با نسبت بسیار بیشتری (همانند قانون مور[1]) افزایش می یابد. بر اساس این دو مشاهده، ما نشان می­دهیم که در ازای مقدار مشخصی المان محاسبه و پهنای باند خارج از حافظه، یک معماری سخت افزاری جدید CNN که برای رسیدن به مقدار مشخصی از موازی­سازی در یک بارِکاری مشخص، سخت افزار را به طور پویا و درجا تنظیم می­کند و بهترین توان عملیاتی را می­دهد. کامپایلر CNN ما، مشخصات خلاصه شده شبکه را به طور خودکار به یک ریزبرنامه (دسته­ای از دستورات سطح پایین VLIW) ترجمه می­کند که توسط یک Coprocessor، برنامه ­ریزی، زمان­بندی و اجرا می­شود. به نسبت یک 4.3GHz quad-core dual socket Intel Zenon، 1.35 GHz C910 GPU و یک 1200MHz FPGA، معماری قابل تنظیم 120 مگاهرتز، حدود 4 تا 8 برابر سریعتر است. این اولین معماری CNN است که توانسته شناسایی اشیای زیادی را در یک فیلم برداری (25 تا30 فریم بر ثانیه) به طور همزمان انجام دهد.

گروه­ها و توضیح دهنده­های موضوعات

c.1.3 (حالت های دیگر معماری): معماری های سازگار شونده، شبکه های عصبی، پردازنده های پاپ لاین[2]

واژه­های عمومی

طرح، آزمایش، کارایی

کلمه­های کلیدی

شبکه های عصبی کانولوشن، تنظیم دوباره پویا، معماری رایانه موازی

[1] Moore

[2] Pipeline processors.

۱۸
فروردين

Convolutional Deep Networks for Visual Data Classification

شبکه ­های عمیق کانولوشن برای دسته ­بندی داده­های بصری

فرمت ترجمه مقاله : word – قابل ویرایش

تعداد صفحات ترجمه مقاله به همراه پاسخ به سوالات : 34 صفحه

رعایت تمام قوانین نگارشی و دارای فهرست اشکال،جداول و محتوا

سال چاپ مقاله : ۲۰۱۲

دانلود اصل مقاله – رایگان

قیمت : 24000 تومان

این فایل علاوه بر ترجمه به سوالات زیر در باب مقاله مذکور پاسخ میدهید:

۸-۱ مقاله دقیقا چی مساله ای را میخواهد حل کند؟

۸-۲ چه جنبه این مساله جنبه مهمی است؟ چرا؟

۸-۳ راه حل های قبلی چه هستند؟

۸-۴ مشکلات راه حلهای قبلی چیست و چرا ناکافی هستند؟

۸-۵ راه حل پشنهادی چیست؟

۸-۶ چگونه راه حل  طراحی و پیاده سازی شده است؟

۸-۷ چرا این راه حل کار خواهد کرد و بهتر از راه حل های قبلی خواهد بود؟

۸-۸ فرضیات بکار رفته چه هستند؟ این فرضیات چقدر واقع گرایانه هستند؟

۸-۹ روش پشنهادی چگونه ارزیابی شده است؟

۸-۱۰ ارزش راه حل چگونه اثبات شده است؟

۸-۱۱ نتایج اصلی مقاله چه هستند؟

۸-۱۲ نتایج چقدر نسبت به فرضیات حساس هستند؟

۸-۱۳ روندهای آتی این کار تحقیقاتی از نظر نویسندگان چیست؟

۸-۱۴ در نگاه کلی، این مقاله چه چیزی به ما میدهد؟

۸-۱۵ نقاط قوت کار از نظر شما کدامند؟در ایده اولیه، در راه حل، و در ارزیابی؟

۸-۱۶ نقاط ضعف کار از نظر شما کدامند؟

۸-۱۷ شما چه جهت هایی برای ادامه کار می بینید؟

۸-۱۸ چه سوالاتی در مورد مقاله به ذهن شما می آید؟

چکیده

این مقاله یک الگوریتم یادگیری نیمه نظارتی را به نام شبکه های عمیق پیچیدگی (CDN) در بر گرفته است، که این شبکه ها برای نشان دادن مشکل دسته­بندی تصاویر توسط یادگیری عمیق به کار می روند. ابتدا، ما چندین لایه پنهان قبلی را با استفاده از ماشین های بلتزمن می سازیم که به طور مؤثر قادر به کاهش اندازه و چکیده اطلاعات تصاویر می باشند. دوم، لایه های پنهان بعدی را با استفاده از ماشین های بلتزمن، می سازیم که به سرعت اطلاعات تصاویر را خلاصه می کنند. سوم، این معماری عمیق ایجاد شده، به خوبی توسط نزول در امتداد گرادیان، تنظیم شده است و بر پایه یادگیری نظارتی با یک تابع ضرر نمایی می باشد. CDN، می تواند ابعاد و چکیده اطلاعات تصویر را در یک زمان بطور موثری کاهش دهد. مهمتر آنکه روند خلاصه سازی و دسته بندی شبکه های CDN، از معماری عمیق یکسانی برای بهینه سازی پارامترهای مشابه در مراحل متفاوت استفاده می کند، که به طور مؤثر توانایی یادگیری را بهبود می بخشد. ما چندین آزمایش روی دو مجموعه دادگان تصاویر استاندارد انجام دادیم و نتایج نشان داده بود که CDN با هر دو دسته بندی کننده های نیمه نظارتی و تکنیکهای یادگیری عمیق موجود در رقابت است.

کلمات کلیدی:

یادگیری نیمه نظارتی، یادگیری عمیق، شبکه های عصبی کانولوشن، دسته­ بندی داده­ های بصری

۱۷
فروردين

ImageNet Classification with Deep Convolutional Neural Networks

دسته بندی شبکه تصویر با شبکه های عصبی عمیق کانولوشن

فرمت ترجمه مقاله : word – قابل ویرایش

تعداد صفحات ترجمه مقاله به همراه پاسخ به سوالات : 48 صفحه

رعایت تمام قوانین نگارشی و دارای فهرست اشکال،جداول و محتوا

سال چاپ مقاله : 2012

دانلود اصل مقاله - رایگان

قیمت : 29000 تومان

این فایل علاوه بر ترجمه به سوالات زیر در باب مقاله مذکور پاسخ میدهید:

8-1 مقاله دقیقا چی مساله ای را میخواهد حل کند؟

8-2 چه جنبه این مساله جنبه مهمی است؟ چرا؟

8-3 راه حل های قبلی چه هستند؟

8-4 مشکلات راه حلهای قبلی چیست و چرا ناکافی هستند؟

8-5 راه حل پشنهادی چیست؟

8-6 چگونه راه حل  طراحی و پیاده سازی شده است؟

8-7 چرا این راه حل کار خواهد کرد و بهتر از راه حل های قبلی خواهد بود؟

8-8 فرضیات بکار رفته چه هستند؟ این فرضیات چقدر واقع گرایانه هستند؟

8-9 روش پشنهادی چگونه ارزیابی شده است؟

8-10 ارزش راه حل چگونه اثبات شده است؟

8-11 نتایج اصلی مقاله چه هستند؟

8-12 نتایج چقدر نسبت به فرضیات حساس هستند؟

8-13 روندهای آتی این کار تحقیقاتی از نظر نویسندگان چیست؟

8-14 در نگاه کلی، این مقاله چه چیزی به ما میدهد؟

8-15 نقاط قوت کار از نظر شما کدامند؟در ایده اولیه، در راه حل، و در ارزیابی؟

8-16 نقاط ضعف کار از نظر شما کدامند؟

8-17 شما چه جهت هایی برای ادامه کار می بینید؟

8-18 چه سوالاتی در مورد مقاله به ذهن شما می آید؟

چکیده

ما یک شبکه عصبی عمیق کانولوشن و بزرگ برای طبقه بندی 1.2 میلیون تصویر با وضوح بالا در رقابت LSVRC-2010 شبکه تصویر به 1000 دسته متفاوت آموزش داده ایم. در داده های آزمایشی، ما به نرخ خطاهای بالاترین و 5 تا بالاترین رسیدیم که به طور قابل ملاحظه ای بهتر از روشهای مطرح قبلی می باشد. شبکه عصبی، که 60 میلیون پارامتر و 650 هزار سلول عصبی دارد شامل پنج لایه کانولوشن می باشد، که برخی از آنها توسط لایه های مکس-پولینگ[1] و سه لایه اتصالات کامل با یک تابع فعالیت سافت مکس[2] 1000-مسیره همراه شده اند. برای سریع بخشیدن به مرحله آموزش، ما از سلول عصبی های غیر اشباع و پیاده سازی واحد پردازنده گرافیکی بسیار کارآمد از عملکرد کانولوشن استفاده کردیم. برای کاهش اوورفیت[3] شدن در لایه­های با اتصالات کامل، ما یک روش تنظیم که به تازگی توسعه یافته را بکار می بریم که "دراپ آوت[4]" نامیده شده و ثابت کرده است بسیار موثر می باشد. ما همچنین انواع مختلفی از این مدل را در رقابت ILSVRC-2012  وارد کرده ایم و به 5 بالاترین نرخ خطای آزمایش 15.3 درصد در مقایسه با 26.2 بدست آمده با دومین بهترین دست یافته ایم.

[1] max-pooling

[2] Softmax

[3] Overfitting

[4] Dropout

۱۶
فروردين

Feature Extraction & Clustering

این پروژه و تمرین مربوط به درس شناسایی آماری الگو می باشد سوالات مربوط به این تمرین و پروژه در ذیل مشاهده میکنید.

برای خرید پاسخ سوالات ّبصورت PDF و همچنین کدهای Matlab مربوط به سوالات میتوانید از لینک ذیل استفاده نمایید:

قیمت : ۵۰۰۰ تومان

1

نوشته های زیر برای افزایش سئو در سایت می باشد و به تمرین فوق ارتباطی ندارد.

Prove the following statement:

The pattern matrix of X is:

Use the following methods to cluster the pattern matrix and draw the
dendrogram in each case:
a) Single link algorithm (Min method)
b) Maximum link algorithm
c) Average link algorithm
d) Ward’s method

Find the linear orthonormal transformation from an n-dimensional X to an mdimensional Y by maximizing tr{Sh}.

find the linear orthonormal transformation from an n-dimensional X to an m-dimensional Y which maximizes

۱۶
فروردين

Feature Selection & Linear Classification

این پروژه و تمرین مربوط به درس شناسایی آماری الگو می باشد سوالات مربوط به این تمرین و پروژه در ذیل مشاهده میکنید.

برای خرید پاسخ سوالات ّبصورت PDF و همچنین کدهای Matlab مربوط به سوالات میتوانید از لینک ذیل استفاده نمایید:

قیمت : 5000 تومان

1

 2
 

نوشته های زیر برای افزایش سئو در سایت می باشد و به تمرین فوق ارتباطی ندارد.

Given the following objective function, use SFS, SBS and “Plus-2 Minus-1 Selection” (LRS) to select 3 features

The density function of a two-dimensional random vector X consists of four

Let 􀜺(􀬵) and 􀜺(􀬶) be samples from 􀟱􀬵 and 􀟱􀬶respectively. The between-class scatter

an n-dimensional X to an m-dimensional Y which maximizes

Design a linear classifier by minimizing the mean-square error for the data given in the following Table, assuming P1 = P2 = 0.5.

Design a Perceptron linear classifier for the data given below

۱۵
فروردين

هوش مصنوعی بسیار سریع تر از آنچه پیش از این تصور می شد، در حال توسعه و ترقی است. طی یک سال گذشته این شاخه از علم به حدی تحول یافته و نمود و بروز خود را در شاخه های دیگر از جمله رباتیک نشان داده که بسیاری از بزرگان حوزه فناوری و علم را نگران کرده است. نگران از اینکه مبادا آنچه زمانی برادران واچوفسکی در فیلم ماتریکس نمایش دادند به زودی زود محقق شود!

به گزارش «تابناک» در همین ماه گذشته بود که گوگل موفق شد با ماشین هوشمند خود ـ که مجهز به متودولوژی جدیدی در هوش مصنوعی است ـ یکی از بزرگترین بازیگران بازی Go در جهان را شکست دهد. آنچه این موفقیت را برای گوگل رقم زد، استفاده از تکنیک جدیدی در هوش مصنوعی به نام Deep Learning یا آموزش عمیق است؛ تکنیکی که به سرعت در حال متحول ساختن هوش مصنوعی است.

۱۴
فروردين

بعد از غلبه‌ محصول شرکت DeepMind گوگل بر انسان در بازی پیچیده‌ی گو، بحث پرحاشیه‌ هوش مصنوعی وارد مرحله‌ جدیدی شده است و همه می‌خواهند نوابغ پشت پرده‌ی این گام بلند به‌سوی آینده را بشناسند.

به گزارش ایسکانیوز به نقل از زومیت، واحد هوش مصنوعی گوگل موسوم به DeepMind یک شرکت با حدود ۲۰۰ نفر پرسنل در لندن است که با هدف حل معمای هوش مصنوعی تشکیل شده و می‌توان آن را جالب‌ترین و مؤثرترین موسسه‌ فعال در زمینه‌ی AI در سرتاسر دنیا دانست. روز ۹ مارس ۲۰۱۶ و بعد از غلبه‌ی AlphaGo بر نفر اول بازی گو در دنیا، DeepMind تاریخ‌ساز شد و در مرکز توجه جهانی قرار گرفت.

باوجود دستیابی به این موفقیت تاریخی، هنوز جزییات فعالیت کارکنان DeepMind (به‌جز سه نفر مؤسس آن) در پرده‌ ابهام قرار دارد که شاید دلیل آن عدم تمایل گوگل به اطلاع‌رسانی در مورد آن‌ها و پذیرفتن خطر جذب این نخبه‌ها توسط رقبای مقتدر و مشتاق به حضور در عرصه‌ی هوش مصنوعی باشد.

در ژانویه‌ ۲۰۱۶ گوگل مبلغ ۴۰۰ میلیون پوند در DeepMind سرمایه‌گذاری کرد که می‌توان دلیل این اقدام را اطمینان کامل به استعداد و توانایی نیروی کار این شرکت دانست و از طرف دیگر انگیزه‌ی قدرتمندی برای شناختن افرادی که تا این حد مورد اعتماد گوگل هستند در اختیار علاقه‌مندان به آینده‌ دنیای فناوری می‌گذارد.

شرکت DeepMind در سال ۲۰۱۰ تأسیس شد و از آن زمان در ابعاد وسیع به تحقیق و انتشار مقاله‌های آکادمیک در زمینه‌ هوش مصنوعی پرداخته است .

به‌منظور معرفی مؤثرترین دانشمندان فعال در DeepMind، تحلیل دقیقی روی محتویات این صفحه انجام شده تا ارتباط تک‌تک مقاله‌های کارکنان با جنبه‌های مختلف پیشرفت شرکت مشخص شود. ازآنجاکه گوگل قادر به تائید ارتباط همه‌ نویسندگان مقالات این صفحه با DeepMind نبود، برای حصول اطمینان از صحت آنچه در ادامه مطلب می‌خوانید، همه منابع ممکن مورد بررسی قرار گرفتند و حتی با تعدادی از دانشمندان این فهرست مستقیما تماس گرفته شد.

ماحصل این تلاش فهرستی شامل ۲۱ دانشمند برتر شاغل در DeepMind با توجه به تعداد مقالات علمی منتشر شده مرتبط با حوزه‌ی هوش مصنوعی است.

ادامه مطلب رو مشاهده نمایید...

تلگرام هوش مصنوعی

کانال هوش مصنوعی ما رو دنبال کنید.




۱۴
فروردين

Likelihood Estimation & Density Estimation

این پروژه و تمرین مربوط به درس شناسایی آماری الگو می باشد سوالات مربوط به این تمرین و پروژه در ذیل مشاهده میکنید.

برای خرید پاسخ سوالات ّبصورت PDF و همچنین کدهای Matlab مربوط به سوالات میتوانید از لینک ذیل استفاده نمایید:

قیمت : ۱۰۰۰۰ تومان

1

۱۴
فروردين

Bayesian Decision Theory

این پروژه و تمرین مربوط به درس شناسایی آماری الگو می باشد سوالات مربوط به این تمرین و پروژه در ذیل مشاهده میکنید.

برای خرید پاسخ سوالات ّبصورت PDF و همچنین کدهای Matlab مربوط به سوالات میتوانید از لینک ذیل استفاده نمایید:

قیمت : ۱۰۰۰۰ تومان

1

2


۱۳
فروردين

مایکروسافت آینده را از آن ربات هایی می داند که البته نه به آدم آهنی شباهت دارند و نه حتی پهپادهای پرنده، بلکه اپلیکیشن هایی هستند که عملکردی ساده را بر اساس دستورات کاربر به انجام می رسانند.

ادامه مطلب رو مشاهده نمایید...

تلگرام هوش مصنوعی