برق. قدرت. کنترل. الکترونیک. مخابرات. تاسیسات.

دایره المعارف تاسیسات برق (اطلاعات عمومی برق)

مغز انسان با حجمی حدوداً معادل هزار و ششصد سانتی متر مکعب به عنوان پیچیده ترین و در عین حال متکامل ترین سیستم شناخته شده همواره مورد توجه و بررسی دانشمندان بوده است و اگر چه یکی از روشهای بررسی هر سیستمی شبیه سازی آن است اما سیستم مغز چنان پیچیده و دقیق است که عملاً شبیه سازی آن را غیر ممکن می سازد. با این وجود در سالهای اخیر دو روش متفاوت برای نزدیک شدن به چگونگی کارکرد و ساختمان مغز ابداع شده است. روش اول که بیشتر به طرز عمل و نحوه عملکرد استدلالی، قیاسی و روانشناسانه مغز مربوط می شود به پیدایش هوش مصنوعی انجامیده است. روش دوم برخورد کاملاً متفاوتی نسبت به روش اول با این مساله دارد و ساختمان بیولوژیكی و ساختار مغز را مورد مطالعه   قرار می دهد كه نتیجه تحقیقات انجام شده در این روش منجر به ایجاد شبکه های عصبی مصنوعی شده است.

در واقع شبکه های عصبی مصنوعی دستگاهها یا نرم افزارهایی هستند که بر اساس ساختمان عصبی مغز سازمان یافته اند و برخی رفتارها را از خود نشان می دهند که مشابه آن در کارکرد مغز انسان وجود دارد و یا آن که قابل تفسیر به یکی از رفتارهای آدمی است. البته ساختمان واقعی مغز بسیار پیچیده تر از آن است که بتوان آن را دقیقاً مدلسازی نمود، مثلاً هر نرون ممکن است با هزاران نرون دیگر در ارتباط باشد همچنین شکل و رفتار نرونها در بخشهای مختلف مغز متفاوت بوده و نیز عمل هر نرون متاثر از بسیاری عوامل دیگر (نظیر شرایط محیطی، هورمونها، مواد شیمیایی، داروها و...) می باشد و به همین دلیل شبیه سازی حتی یک نرون به تنهایی فوق العاده مشکل است، اما برای مشاهده رفتارهایی مشابه رفتارهای مغز انسان نیازی به درنظر گرفتن تمامی پیچیدگیهای مغز نیست. در این خصوص تعریف T. Kohonen از شبکه های عصبی تعریف جامع و کاملی به نظر می رسد.

شبکه های عصبی مصنوعی شبکه هایی کاملاً موازی و به هم پیوسته از اجزاء ساده (معمولاً تطبیق پذیر) همراه با سازمانهای تسلسلی اند که می توانند با جهان واقعی به همان روش سیستم های عصبی زیستی بر هم کنش داشته باشند.

در حقیقت در ساختمان یک شبکه عصبی مصنوعی المانهای ساده غیر خطی به نام گره ها یا نرونها به هم متصلند و بهره این اتصالات با پارامترهایی به نام وزن ها مشخص می گردد. این بهره ها بر طبق وظیفه مورد نظر و برای بهبود عملکردی خاص تنظیم و تصحیح می شوند. آنچه شبکه های عصبی را تا این حد در عمل جذاب ساخته، توانایی یادگیری این شبکه ها و همچنین قابلیت انجام پردازشهای موازی در حجم زیاد داده است. همچنین این شبکه ها، شبکه هایی مقاوم هستند به این معنی که اگر داده های ورودی کامل نبوده یا مقداری نویز داشته باشند باز هم این شبکه ها قادر خواهند بود نتایج درستی را ارائه دهند، همچنین با توجه به وجود تعداد زیادی اجزاء پردازنده درساختار این شبکه ها که هر یک دارای اتصالات محلی نیز می باشند، از بین رفتن هر یک از این اجزاء یا اتصالات تاثیر کوچکی در نتیجه نهایی به جا خواهد گذاشت. علاوه بر این که در برخی از این شبکه ها قدرت این اتصالات یا اصطلاحاً وزنهای شبکه به طور پیوسته بر اساس انگیزش ورودی تطبیق می یابد و بدین ترتیب می تواند آسیب وارده را جبران کند. از دیگر مزایای این شبکه ها می توان به سرعت زیاد آنها، امکان شبیه سازی نرم افزاری و اجزای سخت افزاری، قابلیت تطابق با شرایط جدید و... اشاره نمود.

 - تاریخچه :

نخستین تحقیقات در مورد شبکه های عصبی مصنوعی با مطالعه بر روی سیستم های زیستی شروع شد. به عنوان اولین نظریه پردازانی که برخی از مبانی محاسبات عصبی 1را بیان نموده اند می توان از W . Pitts , W . MCculloch نام برد که تحقیقات خود را در اواخر دهه 1940 منتشر کردند. کار این افراد منجر به ارائه اولین مدل انتزاعی یک نرون گردید که به نرون M-P مشهور است. در این نرون به وسیله تعداد محدودی از ورودیهای  تحریک کننده (وزن ) و بازدارنده  و یک مقدار آستانه ای L خروجی y مشخص می شود. ورودی ها و خروجی تنها می توانند مقادیر باینری صفر و یک را اتخاذ کنند. خروجی یک نرون M-P بر حسب ورودی های آن به صورت زیر تعریف می شود.

   که در آن

   

به عبارت دیگر در مدل فوق یک نرون وقتی فعال است که میزان کلی تحریک وارده به آن از یک حد آستانه ای بیشتر شود. مک کویچ و پیتز قابلیت مدل خود را در انجام عملیات منطقی نظیر NOT , OR AND, نشان دادند . در سال 1958 F.Rosenblatt نشان داد که شبکه ای از نرونهای M-P    با سیناپسهای متغیر را می توان به گونه ای تعلیم داد که    الگوهای خاصی را طبقه بندی نمایند، او این شبکه ها را پرسپترون نامید.

می توان نشان داد که شبکه پرسپترون دو لایه (لایه ورودی و لایه خروجی) تنها قادر است فضای n بعدی را به دو نیم فضای محدود به یک فوق صفحه تقسیم نماید (یا به عبارت دیگر تنها داده هایی که می توان آن ها را توسط یک فوق صفحه به دو بخش مجزا تقسیم نمود توسط این شبکه ها قابل دسته بندی هستند) در حالی که شبکه پرسپترون سه لایه قادر به طبقه بندی هر فضای تصمیمی می باشد.

همچنین نوع مشابهی از شبکه های پرسپترون توسط Hoff و Widrow در سال 1970 با نام Adaptive Linear Neuron یا به اختصار Adaline ارائه گردید که بعدها توسط Widrow و شاگردانش تکمیل گردید و در نتیجه شبکه های چند لایه از Adaline به نام Madaline به وجود آمد.

توسعه روشهای فوق منجر به ارائه روشهای تعلیم بدون نظارت1 و معرفی شبکه های خود سازمانده2 توسط S . Grossberg در دهه 1970 میلادی شد. این شخص بیان داشت که تنها روشهای تعلیم بدون نظارت می توانند از لحاظ زیست شناسی قابل قبول باشند .  سایر تحقیقات مهم در زمینه شبکه های خود سازمانده توسط Kohonen در اوایل دهه 1980 انجام گرفت  .

شبکه های با اتصالات متقارن در همین زمان توسط J.Hopfield معرفی شد و پایداری این شبکه ها در نقاطی با انرژی حداقل به اثبات رسید. وی همچنین وجود همانندی میان مجموعه ای از نرونها و مجموعه هایی از اتمها را بررسی نمود و تناظر بین نیروهای بازدارنده و تحریک کننده یک نرون بر نرون دیگر و نیروهای بین اتمی را بیان داشت .

مهمترین پیشرفت در زمینه تعلیم شبکه های عصبی چند لایه با ارائه الگوریتم پس انتشار خطا 3در سال 1986 میلادی توسط Rumelhart و همکارانش به دست آمد. هر چند اصول اولیه این روش از مدتها قبل شناخته شده و در زمینه های متفاوت مورد استفاده قرار گرفته بود اما مقاله Rumelhart در این زمینه به دلیل بیان روشن آن توانست به این روش عمومیت ببخشد. در واقع در این روش شبکه های عصبی مصنوعی چند لایه می توانند هر گونه ارتباط خطی و نیز غیر خطی بردارهای ورودی و خروجی را دریابند.



1 Neural Computing

1 Unsupervised Learning

2 Self - Organizing

3 Error Back Propagation

صفحات جانبی

نظرسنجی

    لطفاً نظرات خود را درمورد وبلاگ با اینجانب در میان بگذارید.(iman.sariri@yahoo.com)نتایج تاکنون15000مفید و 125غیرمفید. با سپاس


  • آخرین پستها

آمار وبلاگ

  • کل بازدید :
  • تعداد نویسندگان :
  • تعداد کل پست ها :
  • آخرین بازدید :
  • آخرین بروز رسانی :