میکند. هسته به منظور برآورد از متغیرهای تصادفی استفاده میکند. تخمین بدون پارامتر هیچ ساختار ثابت ندارد و هدف رسیدن به یک برآورد است. برای شبیهسازی این الگوریتم از مجموعه داده نوع سوم استفاده مینماییم.
جدول ۴-۲: ماتریس Confusion الگوریتم Kernel naive Baysian

true anomaly
true normal
class precision
pred. anomaly
۹۳۵۵
۱۱۴۴
۸۹.۱۰%
pred. normal
۳۴۷۷
۸۵۶۶
۷۱.۱۳%
class recall
۷۲.۹۰%
۸۸.۲۲%

جدول ۴-۱:معیارهای ارزیابی و نتایج الگوریتم Kernel naive Baysian
F-measure
squared_error
precision
recall
accuracy
۰.۸۰۳۳
۰.۲۰۲ +/- ۰.۳۹۷
۸۰.۱۲%
۸۰.۵۶%
۷۹.۵۰%

الگوریتم Naive Baysian
این الگوریتم از نظریه احتمالی بیزن ساده استفاده میکند و باید متغیرها مستقل از هم باشند. برای شبیهسازی این الگوریتم از مجموعه داده نوع دوم استفاده مینماییم.
جدول ۴-۴: ماتریس Confusion الگوریتم Naive Baysian

true anomaly
true normal
class precision
pred. anomaly
۸۴۸۱
۷۸۰
۹۱.۵۸%
pred. normal
۴۳۵۲
۸۹۳۱
۶۷.۲۴%
class recall
۶۶.۰۹%
۹۱.۹۷%

جدول ۴-۳: معیارهای ارزیابی و نتایج الگوریتم Naive Baysian
F-measure
squared_error
precision
recall
accuracy
۰.۷۹۲۱
۰.۲۲۶ +/- ۰.۴۱۷
۷۹.۴۱%
۷۹.۰۳%
۷۷.۲۴%

الگوریتم Waode
یک مدلی بر پایهی تخمین متوسط وزن وابستگی بین پارامترها میسازد[۱۴]. برای شبیهسازی این الگوریتم از مجموعه داده نوع دوم استفاده نموده و دادهها با تابع گسسته سازی، گسسته مینماییم.
جدول ۴-۶: ماتریس Confusion الگوریتم Waode

true anomaly
true normal
class precision
pred. anomaly
۹۲۲۶
۴۷۷
۹۵.۰۸%
pred. normal
۳۶۰۷
۹۲۳۴
۷۱.۹۱%
class recall
۷۱.۸۹%
۹۵.۰۹%

جدول ۴-۵: معیارهای ارزیابی و نتایج الگوریتم Waode
F-measure
squared_error
precision
recall
accuracy
۰.۸۳۴۹
۰.۱۳۰ +/- ۰.۲۵۵
۸۳.۵۰%
۸۳.۴۹%
۸۱.۸۸%

الگوریتم Aode
رسیدن به یک دسته بندی دقیق ، با جایگزین کردن روش بیزین ساده بطوریکه شروط بیزین ساده مانند استقلال متغیرها را نداشته باشد[۱۵]. برای شبیهسازی این الگوریتم از مجموعه داده نوع اول استفاده نموده و مقادیر از دست رفته را جایگزین، و عملیات گسستهسازی را انجام میدهیم.
جدول ۴-۸: ماتریس Confusion الگوریتم Aode

true anomaly
true normal
class precision
pred.anomaly
۹۲۰۶
۳۱۷
۹۶.۶۷%
pred. normal
۳۶۲۷
۹۳۹۴
۷۲.۱۴%
class recall
۷۱.۷۴%
۹۶.۷۴%

جدول ۴-۷: معیارهای ارزیابی و نتایج الگوریتم Aode
F-measure
squared_error
precision
recall
accuracy
۰.۸۴۳۲
۰.۱۴۵ +/- ۰.۳۱۰
۸۴.۴۱%
۸۴.۲۴%
۸۲.۵۱%

الگوریتم Aodesr
همان مدل Aode است با این ویژگی که در زمان طبقهبندی، Specilificationبین مقدار دو ویژگی تشخیص داده شده و در زمان Generalization حذف میشود[۱۶].
برای شبیهسازی این الگوریتم از مجموعه داده نوع دوم استفاده نموده و عملیات گسستهسازی را انجام میدهیم.
جدول ۴-۱۰: ماتریس Confusion الگوریتم Aodesr

true anomaly
true normal
class precision
pred. anomaly
۹۱۶۹
۳۹۷
۹۵.۸۵%
pred. normal
۳۶۶۴
۹۳۱۴
۷۱.۷۷%
class recall
۷۱.۴۵%
۹۵.۹۱%

جدول ۴-۹: معیارهای ارزیابی و نتایج الگوریتم Aodesr
F-measure
squared_error
precision
recall
accuracy
۰.۸۳۷۴
۰.۱۴۶ +/- ۰.۳۰۱
۸۳.۸۱%
۸۳.۶۸%
۸۱.۹۹%

الگوریتم Bayesenet
این مدل از الگوریتم های مختلفی استفاده میکند تا دقت درستی را بالا ببرد این الگوریتم از ساختمان داده ADT TREE استفاده میکند. برای شبیهسازی این الگوریتم از مجموعه داده نوع اول استفاده نموده و مقادیر از دست رفته را جایگزین ، همچنین عملیات گسستهسازی را انجام میدهیم.
جدول ۴-۱۲: ماتریس Confusion الگوریتم Bayesenet

true anomaly
true normal
class precision
pred. anomaly
۹۳۴۸
۴۷۹
۹۵.۱۳%
pred. normal
۳۴۸۵
۹۲۳۲
۷۲.۶۰%
class recall
۷۲.۸۴%
۹۵.۰۷%

جدول ۴-۱۱: معیارهای ارزیابی و نتایج الگوریتم Bayesenet
F-measure
squared_error
precision
recall
accuracy
۰.۸۳۹
۰.۱۵۸ +/- ۰.۳۳۹
۸۳.۸۶%
۸۳.۹۶%
۸۲.۴۲%

الگوریتم HNB
در این روش یک والد مخفی برای هر صفت با ترکیب تاثیر آن بر صفات دیگر ساخته میشود این الگوریتم بنام HNB معروف است. و برای اینکار از وزن بین وابستگیها استفاده میکند[۱۷]. برای شبیهسازی این الگوریتم از مجموعه داده نوع اول استفاده نموده و همچنین مقادیر از دست رفته جایگزین ، عملیات گسسته سازی را انجام میدهیم.

جدول ۴-۱۳: معیارهای ارزیابی و نتایج الگوریتم HNB
F-measure
squared_error
precision
recall
accuracy
۰.۸۴۳۴
۰.۱۳۶ +/- ۰.۳۰۳
۸۴.۰۲%
۸۴.۶۸%
۸۴.۱۳%

جدول ۴-۱۴: ماتریس Confusion الگوریتم HNB

true anomaly
true normal
class precision
pred. anomaly
۱۰۳۵۷
۱۱۰۲
۹۰.۳۸%
pred. normal
۲۴۷۶
۸۶۰۹
۷۷.۶۶%
class recall
۸۰.۷۱%
۸۸.۶۵%

الگوریتم Dmnbtext
مدلی برای ساخت بیزین ساده با استفاده از چند جملهای افتراقی(Discriminative Multinomial) میباشد.
برای شبیهسازی این الگوریتم از مجموعه داده نوع اول استفاده نموده و مقادیر از دست رفته جایگزین، و همچنین تبدیلnomial to numrical را نیز انجام میدهیم[۱۸].
جدول ۴-۱۶: ماتریس Confusion مربوط به Dmnbtext

این مطلب رو هم توصیه می کنم بخونین:   دانلود پایان نامه دربارهنفقه، اشخاص ثالث، بازرگانان

true anomaly
true normal
class precision
pred. anomaly
۱۰۲۶۶
۱۵۰۵
۸۷.۲۱%
pred. normal
۲۵۶۷
۸۲۰۶
۷۶.۱۷%
class recall
۸۰.۰۰%
۸۴.۵۰%

جدول ۴-۱۵: معیارهای ارزیابی و نتایج الگوریتم Dmnbtext
F-measure
squared_error
precision
recall
accuracy
۰.۸۱۹۶
۰.۱۴۴ +/- ۰.۲۲۲
۸۱.۶۹%
۸۲.۲۵%
۸۱.۹۴%

الگوریتم BaysianLogic Regression
این مدل تابع بیزین را با تخمین لاپلاس و گوس پیادهسازی میکند. برای شبیهسازی این الگوریتم از مجموعه داده نوع دوم استفاده مینماید.
جدول ۴-۱۸: ماتریس Confusion الگوریتم BaysianLogic Regression

true anomaly
true normal
class precision
pred. anomal
۸۷۷۵
۱۲۰۵
۸۷.۹۳%
pred. normal
۴۰۵۸
۸۵۰۶
۶۷.۷۰%
class recall
۶۸.۳۸%
۸۷.۵۹%

جدول ۴-۱۷: معیارهای ارزیابی و نتایج الگوریتم BaysianLogic Regression
F-measure
squared_error
precision
recall
accuracy
۰.۷۷۸۹
۰.۲۳۳ +/- ۰.۴۲۳
۷۷.۸۱%
۷۷.۹۸%
۷۶.۶۵%

در شکل ۴-۱ الگوریتمهای مدل بیزین را از نظر پارامتر درستی مقایسه نمودهایم.

شکل ۴-۱: نمودار ارزیابی الگوریتمهای مدل بیزین بر حسب پارامتر درستی
در شکل ۴-۲ الگوریتمهای مدل بیزین را از نظر پارامتر دقت مقایسه نمودهایم.

شکل ۴-۲: نمودار ارزیابی الگوریتمهای مدل بیزین بر حسب پارامتر دقت
در شکل ۴-۳ الگوریتمهای مدل بیزین را از نظر پارامتر یادآوری مقایسه نمودهایم.

شکل ۴-۳: نمودار ارزیابی الگوریتمهای مدل بیزین بر حسب پارامتر یادآوری
در شکل ۴-۴ الگوریتمهای مدل بیزین را از نظر پارامتر F مقایسه نمودهایم.

شکل ۴-۴: نمودار ارزیابی الگوریتمهای مدل بیزین بر حسب پارامتر F

در شکل ۴-۵ کل معیارهای درستی، دقت، یادآوری و F برای مدل بیزین نمایش داده شده است.

شکل ۴-۵: نمودار ارزیابی الگوریتمهای مدل بیزین بر حسب پارامترهای مختلف
در بررسی پارامترها ارزیابی و طبق نمودارها الگوریتم HNB دارای عملکرد بهتری نسبت به سایر الگوریتمهاست. فقط در معیار Precision الگوریتم Aode دارای عملکرد بهتری است.
۴-۲ مدل کاهل
در این بخش تمام الگوریتمهای IB1، IBK، LWL، KSTAR و KNN در مدل کاهل را با استفاده از نرمافزار شبیهسازی و ارزیابی نموده و نتایج مربوط به ارزیابی در جدول ۴-۱۹ تا ۴-۲۸ آمده است.
در این مدل با توجه به یافتن بر اساس نزدیکترین همسایگی تنها مجموعه دادهای که بهترین جواب را برای مدلها داده است این بود که دادهها را بصورت پایگاهداده وارد نرم افزار نموده که دادهها پیش فرض به فرمت nomial تبدبل میشوند. پس برای همه الگوریتمهای این مدل از مجموعه داده نوع چهارم استفاده شده است.
الگوریتم IB1
این الگوریتم از فاصله اقلیدسی نرمال شده برای پیدا کردن نزدیکترین همسایگی استفاده میکند[۱۹].
جدول ۴-۲۰: ماتریس Confusion الگوریتم IB1

true anomaly
true normal
class precision
pred.anomaly
۸۶۸۱
۳۳۴
۹۶.۳۰%
pred. normal
۴۱۵۲
۹۳۷۷
۶۹.۳۱%
class recall
۶۷.۶۵%
۹۶.۵۶%

جدول ۴-۱۹: معیارهای ارزیابی و نتایج الگوریتم IB1
F-measure
squared_error
precision
recall
accuracy
۰.۸۲۴۴
۰.۱۹۹ +/- ۰.۳۹۹
۸۲.۸۰%
۸۲.۱۰%
۸۰.۱۰%

الگوریتم IBK
این الگوریتم از فاصله اقلیدسی نرمال شده برای پیدا کردن نزدیکترین همسایگی استفاده میکند و همچنین مقدار k بر پایه cross-validation بدست میآید. فاصلهها در این الگوریتم میتواند وزندار باشد[۱۹].
جدول ۴-۲۱: معیارهای ارزیابی و نتایج الگوریتم IBK
F-measure
squared_error
precision
recall
accuracy
۰.۸۲۷۷
۰.۱۸۶ +/- ۰.۳۸۰
۸۳.۱۰%
۸۲.۴۵%
۸۰.۴۷%

جدول ۴-۲۲: ماتریس Confusion الگوریتم IBK

true anomaly
true normal
class precision
pred.anomaly
۸۷۴۵
۳۱۵
۹۶.۵۲%
pred. normal
۴۰۸۸
۹۳۹۶
۶۹.۶۸%
class recall
۶۸.۱۴%
۹۶.۷۶%

الگوریتم LWL
این الگوریتم از فاصله اقلیدسی نرمال شده برای پیدا کردن نزدیکترین همسایگی استفاده میکند. بطوری که به ویژگیها وزن نسبت داده شده است[۲۰].
جدول ۴-۲۴: ماتریس Confusion الگوریتم LWL

true anomaly
true normal
class precision
pred. anomaly
۸۶۲۳
۷۴۶
۹۲.۰۴%
pred. normal
۴۲۱۰
۸۹۶۵
۶۸.۰۵%
class recall
۶۷.۱۹%
۹۲.۳۲%

جدول ۴-۲۳: معیارهای ارزیابی و نتایج الگوریتم LWL
F-measure
squared_error
precision
recall
accuracy
۰.۸۰۱
۰.۲۱۲ +/- ۰.۳۶۹
۸۰.۰۴%
۷۹.۷۶%
۷۸.۰۲%

الگوریتم KSTAR
الگوریتم مبتنی بر فاصله که در آن از تابع آنتروپی برای محاسبه فاصله استفاده میشود. معیار این الگوریتم شباهت داده با دادههای آموزشیاست[۲۱].
جدول ۴-۲۶: ماتریس Confusion الگوریتم KSTAR

true anomaly
true normal
class precision
pred. anomaly
۸۸۱۴
۳۱۶
۹۶.۵۴%
pred. normal
۴۰۱۹
۹۳۹۵
۷۰.۰۴%
class recall
۶۸.۶۸%
۹۶.۷۵%

جدول ۴-۲۵: معیارهای ارزیابی و نتایج الگوریتم KSTAR
F-measure
squared_error
precision
recall
accuracy
۰.۸۲۹۹
۰.۱۷۷ +/- ۰.۳۶۱
۸۳.۲۹%
۸۲.۷۱%
۸۰.۷۷%

الگوریتم KNN
این الگوریتم از Kd-tree برای ساخت مدل استفاده میکند.
جدول

دسته‌ها: No category

دیدگاهتان را بنویسید