۴-۲۷: معیارهای ارزیابی و نتایج الگوریتم KNN
F-measure
squared_error
precision
recall
accuracy
۰.۸۲۴۴
۰.۱۹۹ +/- ۰.۳۹۹
۸۲.۸۰%
۸۲.۱۰%
۸۰.۱۰%

جدول ۴-۲۸: ماتریس Confusion الگوریتم KNN

true anomaly
true normal
class precision
pred. anomaly
۸۶۸۱
۳۳۴
۹۶.۳۰%
pred. normal
۴۱۵۲
۹۳۷۷
۶۹.۳۱%
class recall
۶۷.۶۵%
۹۶.۵۶%

در شکل ۴-۶ الگوریتمهای مدل کاهل را از نظر پارامتر درستی مقایسه نمودهایم

شکل ۴-۶: نمودار ارزیابی الگوریتمهای مدل کاهل بر حسب پارامتر درستی
در شکل ۴-۷ الگوریتمهای مدل کاهل را از نظر پارامتر دقت مقایسه نمودهایم.

شکل ۴-۷: نمودار ارزیابی الگوریتمهای مدل کاهل بر حسب پارامتر دقت
در شکل ۴-۸ الگوریتمهای مدل کاهل را از نظر پارامتر یادآوری مقایسه نمودهایم.

شکل ۴-۸: نمودار ارزیابی الگوریتمهای مدل کاهل بر حسب پارامتر یادآوری
در شکل ۴-۹ الگوریتمهای مدل کاهل را از نظر پارامتر F مقایسه نمودهایم.

شکل ۴-۹: نمودار ارزیابی الگوریتمهای مدل کاهل بر حسب پارامتر F
در شکل ۴-۱۰ کل معیارهای درستی، دقت، یادآوری و F برای مدل کاهل نمایش داده شده است.

شکل ۴-۱۰: نمودار ارزیابی الگوریتمهای مدل کاهل بر حسب پارامترهای مختلف
در بررسی پارامترها ارزیابی و طبق نمودارها الگوریتم K-STARدارای عملکرد بهتری نسبت به سایر الگوریتمهاست.
۴-۳ شبکه عصبی
در این بخش شبکههای عصبی مختلف شامل چند لایه پرسپتون، پرسپتون، شبکه با تابع شعاعی و شبکه عصبی انتشار رو به جلو و خطا رو به عقب را با استفاده از نرمافزار شبیهسازی و ارزیابی نموده و نتایج مربوط به ارزیابی در جدول ۴-۲۹ تا ۴-۳۶ آمده است.
شبکه چند لایه پرسپتون۴۴
این شبکه شامل سه لایه ورودی،مخفی وخروجی است که تعداد سلولهای هرلایه به روش سعی وخطا مشخص میگردد. سیگنالهای ورودی به وسیلهضریب های بهنجارکننده به مقداریک نرمالیزه شده و بعد از محاسبات، خروجی به مقدارواقعی برگردانده میشود. همچنین مقادیراولیه وزنها به صورت اتفاقی در نظر گرفته شدهاند. این شبکه برمبنای الگوریتم پس انتشار خطا آموزش میبیند. بدین ترتیب که خروجیهای واقعی باخروجی های دلخواه مقایسه میشوند و وزنها به وسیله الگوریتم پس انتشار،تنظیم میگردند. برای ورودیp ام، مربع خطای خروجی برای تمام سلولهای لایه خروجی بصورت زیر در میآید:
رابطه ۴-۱
E_P=1/2 (d^p-y^p )^2=1/2 ?_(j=1)^s?(d_j^p-y_j^p )^2

که در آن d_j^p خروجی دلخواه برایj امین سلول در لایه خروجی، y_j^p خروجی واقعی برایj امین سلول، s ابعاد بردار خروجی، y^p بردار خروجی واقعی، d^p بردار خروجی دلخواه هستند.مرجع خطای کل E برایP الگو بصورت زیر در میآید:
رابطه ۴-۲
E=?_(P=1)^P?E_P =1/2 ?_(P=1)^P??_(j=1)^s?(d_j^P-y_j^P )^2

وزنها با هدف کاهش تابع هزینه E به مقدار مینیمم به روش گرادیان تنظیم میگردد معادله بروز درآوردن وزنها بصورت زیر است:
رابطه ۴-۳
w_ij=w_ij (t)+??w_ij (t)+??w_ij (t-1)

که در آن
رابطه۴-۴

?w_ij (t)=-((?E_P)/(?w_ij (t)))

و ?ضریب یادگیری و w_ij (t) وزن قبلی میباشد.در این روش وزنها بطور مکرر برای تمام الگوهای یادگیری به روز درآورده میشوند. روند یادگیری هنگامی متوقف میشود که مجموع کل خطاها E ، برایP الگو از مقدار آستانه تعریف شده کمتر شود یا تعداد کل دوره تعلیم به پایان برسد.

شکل ۴-۱۱: نمونهای از شبکه MLP
برای شبیهسازی این روش از داده نوع اول استفاده نموده مقدار از دست رفته جایگزین و nomial را به numerical تبدیل مینماییم.
جدول ۴-۲۹:معیارهای ارزیابی و نتایج شبکه MLP
F-measure
squared_error
precision
recall
accuracy
۰.۷۶۱۴
۰.۲۶۰ +/- ۰.۴۲۷
۷۶.۹۴%
۷۵.۳۶%
۷۲.۹۶%

جدول ۴-۳۰: ماتریس Confusion شبکه MLP

true anomaly
true normal
class precision
pred. anomaly
۷۴۴۲
۷۰۶
۹۱.۳۴%
pred. normal
۵۳۹۱
۹۰۰۵
۶۲.۵۵%
class recall
۵۷.۹۹%
۹۲.۷۳%

شبکه پرسپتون۴۵
نوعی از شبکه عصبی بر مبنای یک واحد محاسباتی به نام پرسپتون ساخته میشود. یک پرسپتون برداری از ورودیهای با مقادیر حقیقی را گرفته و یک ترکیب خطی از این ورودیها را محاسبه میکند.اگر حاصل از یک مقدار آستانه بیشتر بود خروجی برابر با ۱ و در غیر اینصورت معادل -۱ است.
یادگیری پرسپتون:
یک پرسپتون فقط میتواند مثالهایییاد بگیرد که بطور خطی باشند
رابطه۴-۵
O(x_1,x_2,..,x_n )={?(?(1 ifw_0+w_1 x_1+..+w_n [email protected])@-1 otherwise)}

شکل ۴-۱۲: عملکرد شبکه پرسپتون
برای شبیهسازی این روش از مجموعه داده نوع پنجم استفاده نموده و همچنین از تابع nomial to numerical برای تبدیل دادهها به داده عددی استفاده نمودیم.
جدول ۴-۳۲: ماتریس Confusion شبکه Perceptrons

True anomaly
true normal
class precision
pred. anomaly
۱۱۵۸۵
۹۶۷۱
۵۴.۵۰%
pred. normal
۱۲۴۸
۴۰
۳.۱۱%
class recall
۹۰.۲۸%
۰.۴۱%

جدول ۴-۳۱: معیارهای ارزیابی و نتایج شبکه Perceptrons
F-measure
squared_error
precision
recall
accuracy
۰.۳۵۲۲
۰.۴۸۴ +/- ۰.۵۰۰
۲۸.۸۰%
۴۵.۳۴%
۵۱.۵۷%

شبکه با تابع شعاعی۴۶
در این شبکه سیگنالها ورودی مستقیما وارد سلولهای لایه مخفی میشوند. برخلاف شبکه MLP که دارای توابع فعالیت عمومی هستند توابع فعالیت در این شبکهها محلی میباشند.تعداد سلولهای لایه مخفی از روش سعی و خطا بدست میآید.در لایه خروجی تنها جمع کننده وجود دارد که ورودی آنها خروجی سلولهای لایه مخفی هستند. تعداد سلولهای لایه خروجی برابر با تعداد خروجیها است. درتعلیم این شبکه، علاوه برتنظیم وزنها، نیاز به تنظیم مرکز توابع فعالیت نیز خواهد بود. وزنها ازروش گرادیان نزولی برطبق کمترین مجموع مربعات خطا و مرکزتوابع فعالیت نیز به همین روش تنظیم میگردد.
تکنیک توابع شعاعی شامل انتخاب یک تابع F بصورت زیر میباشد:
رابطه ۴-۶
F(x)=?_(i=1)^N?w_i ?(?x-x_i ?)

این مطلب رو هم توصیه می کنم بخونین:   منبع پایان نامه ارشد با موضوعشخص ثالث، ضمن عقد، طلاق

که ?(?x-x_i ?) مجموعه ای از N تابع غیرخطی است که توابع پایه شعاعی نامیده میشوند و ?*? بیانگر نرم بردار است که معمولا بصورت فاصله اقلیدسی است در این مدل توابع فعالیت ? بصورت گوسی در نظر گرفته میشوند و x_iمرکز توابع پایه شعاعی هستند.

شکل ۴-۱۳: نمونهای از شبکه RBF
برای شبیهسازی این روش از داده نوع دوم استفاده نمودهایم.
جدول ۴-۳۴: ماتریس Confusion شبکه RBF

True anomaly
true normal
class precision
pred.anomaly
۸۰۶۸
۲۶۰
۹۶.۸۸%
pred. normal
۴۷۶۵
۹۴۵۱
۶۶.۴۸%
class recall
۶۲.۸۷%
۹۷.۳۲%

جدول ۴-۳۳: معیارهای ارزیابی و نتایج شبکه RBF
F-measure
squared_error
precision
recall
accuracy
۰.۸۰۸۸
۰.۱۷۱ +/- ۰.۲۹۲
۸۱.۶۸%
۸۰.۱۰%
۷۷.۷۱%

Neural net
در اینجا یک شبکه عصبی رو به جلو با الگوریتم انتشار رو به عقب است. در این شبکه اطلاعات فقط رو به جلو حرکت کرده و هیچ حلقه وجود ندارد. الگوریتم انتشار به عقب یک روش یادگیری نظارت شده است که می توان به دو مرحله تقسیم می شود.بروز رسانی وزنها و انتشار این کار آنقدر ادامه می یابد تا کارایی شبکه خوب شود برای شبیهسازی این روش از داده نوع دوم استفاده نمودهایم.
جدول ۴-۳۶: ماتریس Confusion شبکه Neural net

true anomaly
true normal
class precision
pred. anomaly
۸۱۴۶
۲۹۹
۹۶.۴۶%
pred. normal
۴۶۸۷
۹۴۱۲
۶۶.۷۶%
class recall
۶۳.۴۸%
۹۶.۹۲%

جدول ۴-۳۵: معیارهای ارزیابی و نتایج شبکه Neural net
F-measure
squared_error
precision
recall
accuracy
۰.۸۰۸۹
۰.۲۱۱ +/- ۰.۳۹۹
۸۱.۶۱%
۸۰.۲۰%
۷۷.۸۸%

در شکل ۴-۱۴ مدلهای مختلف شبکهعصبی را از نظر پارامتر درستی مقایسه نمودهایم.

شکل ۴-۱۴: نمودار ارزیابی مدلهای شبکه عصبی بر حسب پارامتر درستی

در شکل ۴-۱۵ مدلهای مختلف شبکهعصبی را از نظر پارامتر یادآوری مقایسه نمودهایم.

شکل ۴-۱۵: نمودار ارزیابی مدلهای شبکه عصبی بر حسب پارامتر دقت
در شکل ۴-۱۶ مدلهای مختلف شبکهعصبی را از نظر پارامتر دقت مقایسه نمودهایم.

شکل ۴-۱۶: نمودار ارزیابی مدلهای شبکه عصبی بر حسب پارامتر یادآوری
در شکل ۴-۱۷ مدلهای مختلف شبکهعصبی را از نظر پارامتر F مقایسه نمودهایم.

شکل ۴-۱۷: نمودار ارزیابی مدلهای شبکه عصبی بر حسب پارامتر F
در شکل ۴-۱۸ کل معیارهای درستی، دقت، یادآوری و F برای شبکهعصبی نمایش داده شده است.

شکل ۴-۱۸: نمودار ارزیابی مدلهای شبکه عصبی بر حسب پارامترهای مختلف
در بررسی پارامترها ارزیابی و طبق نمودارها الگوریتم Neural net دارای عملکرد بهتری نسبت به سایر الگوریتمهاست.
۴-۴ مدل قانون محور
در این بخش تمام الگوریتمهای conjuctive rule، decision table، DTNB، JRIP، ONER، PRISM، RIDOR، Rule Induction، Rule Induction single attribute، Tree by rule و Part در مدل قانونمحور را با استفاده از نرمافزار شبیهسازی و ارزیابی نموده و نتایج مربوط به ارزیابی در جدول ۴-۳۷ تا ۴-۵۸ آمده است.
الگوریتم Conjuctive rule
این الگوریتم یک قانون عطفی تولید میکند که میتواند دادههایNomial و Numrical را قبول کند. برای شبیهسازی این الگوریتم از مجموعه داده نوع اول استفاده نموده و مقادیر از دست رفته جایگزین مینماییم.
جدول ۴-۳۸: ماتریس Confusion الگوریتم Conjuctive rule

true anomaly
true normal
class precision
pred. anomaly
۹۵۰۵
۸۸۴
۹۱.۴۹%
pred. normal
۳۳۲۸
۸۸۲۷
۷۲.۶۲%
class recall
۷۴.۰۷%
۹۰.۹۰%

جدول ۴-۳۷: معیارهای ارزیابی و نتایج الگوریتم Conjuctive rule
F-measure
squared_error
precision
recall
accuracy
۰.۸۲۲۶
۰.۱۷۵ +/- ۰.۳۵۷
۸۲.۰۶%
۸۲.۴۸%
۸۱.۳۲%

الگوریتم decision table
یک جدول تصمیمگیری روی مجموعه دادهها میسازد. [۲۲]. برای شبیهسازی این الگوریتم از مجموعه داده نوع سوم استفاده مینماییم.
جدول ‏۰-۳۹: معیارهای ارزیابی و نتایج الگوریتم decision table
F-measure
squared_error
precision
recall
accuracy
۰.۷۷۹
۰.۱۳۷ +/- ۰.۲۶۳
۷۹.۳۹%
۷۶.۴۷%
۷۳.۵۹%

جدول ۴-۴۰: ماتریس Confusion الگوریتم decision table

True anomaly
true normal
class precision
pred. anomaly
۷۱۵۰
۲۷۰
۹۶.۳۶%
pred. normal
۵۶۸۳
۹۴۴۱
۶۲.۴۲%
class recall
۵۵.۷۲%
۹۷.۲۲%

الگوریتم DTNB
از ترکیب جدول تصمیم و بیزین ساده استفاده میکند. در هر مرحله، الگوریتم صفات را به دو مجموعه جدا از هم جدول تصمیم و شبکه بیزین تقسیم میکند. در جستجو از معیار انتخاب رو به جلو استفاده میکند که در هر گام صفات انتخاب شده توسط بیزین ساده و بقیه صفات توسط جدول تصمیم مدل میشوند. در

دسته‌ها: No category

دیدگاهتان را بنویسید