You can edit almost every page by Creating an account. Otherwise, see the FAQ.

لایه (یادگیری عمیق)

از EverybodyWiki Bios & Wiki
پرش به:ناوبری، جستجو

مقایسه‌ی لایه‌ها در شبکه‌ی AlexNet با شبکه‌ی LeNet

یک لایه در مدل یادگیری عمیق یک ساختار یا توپولوژی شبکه در معماری مدل است که اطلاعات لایه‌های قبلی را گرفته و سپس به لایه بعدی منتقل می کند. چندین لایه معروف در یادگیری عمیق مانند لایه کانولوشن [۱] و لایه تجمعی حداکثر [۲] [۳] در شبکه عصبی کانولوشن وجود دارد. لایه کاملا متصل و لایه ReLU در شبکه عصبی وانیلی. لایه RNN در مدل RNN [۴] [۵] [۶] و لایه deconvolutional در رمزگذار خودکار و غیره.

هر لایه از گره‌هایی تشکیل شده است که از سلول‌های عصبی مغز ما تقلید می‌کنند. این گره‌ها از گره‌های لایه‌ی قبلی اطلاعات دریافت می‌کنند، آنها را در یک مقدار قابل تعیین (وزن) ضرب می‌کنند و سپس یک بایاس به آن اضافه می‌شود تا به لایه‌ی بعدی برسد. هر خط در شکل نشان‌دهنده‌ی یک وزن است. روش‌های مختلفی برای وزن مقداردهی این وزن‌ها وجود دارد.

به طور خلاصه، شبکه‌های عصبی اطلاعات را از لایه‌ی ورودی می‌گیرند، آنها را در لایه‌های پنهان پردازش می‌کنند و اطلاعات مورد نظر را در لایه‌ی خروجی تولید می‌کنند.

انواع لایه‌ها[ویرایش]

لایه‌های شبکه‌ی عصبی
  • لایه‌ی ورودی: لایه‌ای است که اطلاعات را برای پردازش شبکه عصبی وارد می‌کند. هر دایره نشان‌دهنده‌ی ۱ ویژگی (یک ستون) است.
  • لایه‌ی پنهان: این لایه‌ها تمام پردازش‌ها را برای شبکه‌های عصبی انجام می‌دهند. یک شبکه می‌تواند هر تعداد از این لایه‌ها داشته باشد. به طور کلی هرچه لایه‌های پنهان شبکه بیش‌تر باشد، شبکه عصبی دقیق‌تر خواهد بود ولی سرعت یادگیری و پردازش بیش‌تر خواهد بود.
  • لایه‌ی خروجی: این لایه به سادگی اطلاعات مربوط به آخرین لایه‌ی پنهان در ساختار شبکه عصبی را گرد هم می‌آورد تا تمام اطلاعات مورد نیاز شما به عنوان خروجی نمایش داده شود.

تفاوت با لایه‌های نئوکورتکس[ویرایش]

یک تفاوت ذاتی بین لایه‌بندی یادگیری عمیق و لایه‌بندی نئوکورتیکال وجود دارد؛ لایه‌بندی یادگیری عمیق به توپولوژی شبکه بستگی دارد، در حالی که لایه‌بندی نئوکورکیتال به همگنی لایه‌ها‌ی درونی بستگی دارد.

لایه‌ی متراکم[ویرایش]

لایه متراکم که به آن لایه کاملاً متصل نیز می‌گویند، به لایه‌ای اطلاق می‌شود که نورون‌های درون آن به هر نورون در لایه‌ی قبلی متصل می‌شوند. [۷] [۸] [۹] [۱۰]

منابع[ویرایش]

  1. خطای لوآ در پودمان:Citation/CS1/en/Identifiers در خط 47: attempt to index field 'wikibase' (a nil value).
  2. Yamaguchi, Kouichi; Sakamoto, Kenji; Akabane, Toshio; Fujimoto, Yoshiji (November 1990). A Neural Network for Speaker-Independent Isolated Word Recognition. First International Conference on Spoken Language Processing (ICSLP 90). Kobe, Japan.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
  3. Yamaguchi, Kouichi; Sakamoto, Kenji; Akabane, Toshio; Fujimoto, Yoshiji (November 1990). A Neural Network for Speaker-Independent Isolated Word Recognition. First International Conference on Spoken Language Processing (ICSLP 90). Kobe, Japan.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
  4. Dupond, Samuel (2019). "A thorough review on the current advance of neural network structures". Annual Reviews in Control. 14: 200–230.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
  5. خطای لوآ در پودمان:Citation/CS1/en/Identifiers در خط 47: attempt to index field 'wikibase' (a nil value).
  6. خطای لوآ در پودمان:Citation/CS1/en/Identifiers در خط 47: attempt to index field 'wikibase' (a nil value).
  7. خطای لوآ در پودمان:Citation/CS1/en/Identifiers در خط 47: attempt to index field 'wikibase' (a nil value).
  8. "CS231n Convolutional Neural Networks for Visual Recognition". CS231n Convolutional Neural Networks for Visual Recognition. 10 May 2016. Retrieved 27 Apr 2021. Fully-connected layer: Neurons in a fully connected layer have full connections to all activations in the previous layer, as seen in regular Neural Networks.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
  9. "Convolutional Neural Network. In this article, we will see what are… - by Arc". Medium. 26 Dec 2018. Retrieved 27 Apr 2021. Fully Connected Layer is simply, feed forward neural networks.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
  10. "Fully connected layer". MATLAB. 1 Mar 2021. Retrieved 27 Apr 2021. A fully connected layer multiplies the input by a weight matrix and then adds a bias vector.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.

الگو:Comparison image neural networks.svg


This article "لایه (یادگیری عمیق)" is from Wikipedia. The list of its authors can be seen in its historical and/or the page Edithistory:لایه (یادگیری عمیق). Articles copied from Draft Namespace on Wikipedia could be seen on the Draft Namespace of Wikipedia and not main one.



Read or create/edit this page in another language[ویرایش]