Remove ads
From Wikipedia, the free encyclopedia
در یادگیری ماشین، قانون دلتا یک قانون یادگیری گرادیان کاهشی برای به روز رسانی وزن ورودی ها به سلول عصبی مصنوعی در یک شبکه عصبی تک لایه است. می توان آن را به عنوان الگوریتم پس انتشار برای یک شبکه عصبی تک لایه با تابع خطای از دست رفتگی میانگین مربع استخراج کرد.
برای یک عصب با عملکرد فعال سازی ، قاعده دلتا برای نورون -امین وزن عصب از طریق زیر محاسبه می شود.
که در آن:
یک ثابت کوچک به نام نرخ یادگیری است.
تابع فعال سازی عصب است.
مشتق است.
خروجی هدف است.
مجموع وزنی ورودی های عصب است.
خروجی واقعی است.
ورودی -ام است.
نشان میدهد که و .
قانون دلتا معمولاً به شکل ساده شده برای یک عصب با تابع فعال سازی خطی به صورت زیر بیان می شود:
در حالی که قانون دلتا شبیه به قانون بروزرسانی پرسپترون است، اشتقاق متفاوت است. پرسپترون از تابع پلهای هویساید به عنوان تابع فعال سازی استفاده می کند, و این بدان معنی است که در صفر وجود ندارد و در جاهای دیگر برابر با صفر است, که استفاده مستقیم از قانون دلتا را غیرممکن می کند.
قانون دلتا با تلاش برای به حداقل رساندن خطا در خروجی شبکه عصبی از طریق گرادیان کاهشی مشتق شده است. خطای شبکه عصبی با خروجی های j را می توان به این صورت اندازه گیری کرد:
در این مورد، ما میخواهیم از "فضای وزن" عصبی (فضای همه مقادیر ممکن وزنهای عصب) متناسب با گرادیان تابع خطا نسبت به هر وزن حرکت کنیم. برای انجام این کار، مشتق جزئی خطا را با توجه به هر وزن محاسبه می کنیم. برای وزن i ام، این مشتق را می توان به صورت زیر نوشت:
بدلیل اینکه فقط به نورون j ام توجه می کنیم، میتوانیم در حالی که جمع را حذف میکنیم، فرمول خطای بالا را جایگزین کنیم:
سپس از قاعده زنجیره ای برای تقسیم آن به دو مشتق استفاده می کنیم:
برای بدست آوردن مشتق سمت چپ, تنها قانون قدرت و قانون زنجیره را اعمال می کنیم:
برای یافتن مشتق مناسب، دوباره قانون زنجیره را اعمال میکنیم، این بار با توجه به کل ورودی های :
توجه داشته باشید که خروجی ام، ، فقط تابع فعال سازی است که به ورودی عصبی اعمال می شود. بنابراین می توانیم مشتق را با توجه به به سادگی مشتق اول نوشت:
بعد بازنویسی می کنیم در رابطه آخر به عنوان مجموع همه وزن هر وزن w برابر ورودی مربوطه آن است:
زیرا ما فقط به این موضوع توجه داریم وزن ام، تنها عبارت جمع که مرتبط است است:
که معادله نهاییگرادیان را به ما می دهد:
همانطور که در بالا ذکر شد، شیب نزول به ما می گوید که تغییر ما برای هر وزن باید متناسب با گرادیان باشد. انتخاب یک ثابت تناسب و با حذف علامت منفی برای اینکه بتوانیم وزن را در جهت منفی گرادیان حرکت دهیم تا خطا را به حداقل برسانیم، به معادله هدف خود می رسیم:
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.