پیش‌بینی مسافران نجات‌یافته

تغییرات پروژه از تاریخ 1394/08/30 تا تاریخ 1394/10/05
در این پروژه سعی خواهم کرد که یکی از مسابقات سایت Kaggle.com که از طریق این [لینک](https://www.kaggle.com/c/titanic) قابل دسترسی می‌باشد را بررسی کنیم. در این مسابقه از شرکت کنندگان خواسته شده که با استفاده از اطلاعات داده شده درباره مسافران کشتی تایتانیک که در مجموعه داده‌[^1]های مسابقه ارایه شده پیشبینی کنند که چه کسی از تایتانیک جان سالم بدر برده است. در ادامه ابتدا توضیحاتی راجع به داده‌های مسئله داده می‌شود سپس تعدادی از روش‌‌هایی که برای حل مسئله مطرح هستند بررسی خواهند شد.
# مقدمه
در حادثه برخورد کشتی تایتانیک به کوه یخ 1502 نفر از 2224 مسافر و خدمه کشتی کشته شدند که یکی از دلایل آن عدم تعبیه قایق نجات به تعداد لازم بود.
هرچند که می‌توان شانس را یکی از عوامل تاثیرگذار در نجات یافتن افراد بیان کرد اما برای برخی افراد مانند زنان و بچه‌ها و افرادی که در قسمت‌های با درجه[^2] بالاتر جای داشتند احتمال بیشتری وجود داشت که نجات پیدا کنند.
داده‌های مسأله بصورت فایل‌های csv [^3] در اختیار کاربران قرار داده شده اند. در شکل زیر اطلاعات داده شده و توضیحات آنها آورده شده است.
![شکل1-اطلاعات داده شده راجع به مسافران](http://i.imgur.com/1MpPa2D.png)
قسمتی از داده‌ها:
![شکل2-قسمتی از داده‌ها](http://i.imgur.com/4wCqrcS.png)
همانطور که در شکل مشخص می‌باشد برای برخی افراد بعضی ویژگی‌ها دارای مقدار نمی‌باشند.
مجموعه داده‌ها دارای 819 نمونه می‌باشد.
مجموعه داده شده جهت تست نیز دارای 418 نمونه است.
در صورتی که یک بررسی اولیه بر روی داده‌ها انجام دهیم نتایج زیر بدست می‌آیند.
![شکل3-بررسی اولیه](http://i.imgur.com/OanANSO.png)
همانطور که مشاهده می‌کنید جنسیت مسافر در نجات یافتن وی بسیار تاثیر گذار می‌باشد چنانکه 74 درصد زنان زنده ماندند در حالی که تنها 18 درصد مردان نجات پیدا کردند. این اطلاعات درک کلی از شرایط مسئله در اختیار ما قرار می‌دهند.
# کارهای مرتبط
در منابع ذکر شده  روش‌های Naïve Bayes، Decision Tree، Random Forest استفاده شده اند که سعی خواهیم کرد هر یک را در حد امکان قابل درک بررسی کنیم. برای هر روش پیشنهادی در ابتدا راجع به کلیت روش توضیح داده شده سپس روش را برای مسئله داده شده بکار خواهیم برد.
## [1]روش Naïve Bayes
در این روش از قوانین احتمال شرطی جهت رسیدن به احتمال زنده ماندن یک فرد استفاده می‌کنیم.
$$P(outcome|evidence)=P(outcome)  \times (evidence | outcome)/P(evidence)$$
(احتمال outcome به شرطی که شرط  evidence محقق شده باشد)
بنابراین زمانی که بخواهیم احتمال زنده ماندن (outcome) را بر اساس یک ویژگی در فرد محاسبه کنیم این رابطه به کمک ما خواهد آمد.
برای مثال می‌خواهیم محاسبه کنیم که اگر شخصی زن باشد
احتمال زنده ماندن آن چه قدر است. اگر p(s)  را احتمال رنده ماندن در نظر بگیریم:
$$P(s|female)=P(s) \times P(female | s)/P(female)$$
که مقادیر (P(s) ، P(female | s و(P(female قابل محاسبه می‌باشند. برای مثال (P(female|s (احتمال زن بودن به شرط زنده ماندن)  نمایان‌گر ان است که چند درصد نجات یافتگان زن می‌باشند که با استفاده از اطلاعات مسئله به سادگی قابل محاسبه می‌باشد.
حال اگر بخواهیم چند شرط را در نظر بگیریم رابطه بالا به شکل زیر در می‌آید:
![Bayes’ theorem ](http://i.imgur.com/HgKEayb.png)
که در این فرمول نیز هرکدام از بخش ها با توجه به اطلاعات مسئله قابل محاسبه می باشند .
در این مرحله احتمال زنده ماندن با در نظر گرفتن ترکیبات مختلفی از ویژگی‌های فرد اندازه گرفته شده است. در صورتی که احتمال بیشتر از 50 درصد بود، فرد را نجات یافته و در غیر این صورت فرد را غرق شده به حساب می‌آورده و نتایج بدست آمده را با اطلاعات مسئله چک می‌کرده تا میزان دقت روش به ازاء ویژگی های در نظر گرفته شده را بدست آید.
![شکل4-نتایج حاصل از روش Naïve Bayes به ازاء ترکیبات مختلف  ویژگی‌های فرد](http://i.imgur.com/JJdEhSu.png)
همانطور که از جدول بالا مشخص می‌باشد فقط با در نظر گرفتن جنسیت افراد دقت 76.79 درصد به دست آمده است. این در حالی است که اضافه کردن ویژگی‌های دیگر نتنها نتایج را بهبود نبخشیده بلکه در مواردی باعث کاهش آن شده است. این موضوع به خاطر تاثیر بسیار زیاد جنسیت می‌باشد. اگر سایر ویژگی‌ها را بدون جنسیت در نظر بگیریم دقت 65.79 درصدی حاصل می‌شود که نمایانگر این موضوع می‌باشد که اگرچه این ویژگی‌‌ها به اندازه جنسیت موثر نمی‌باشند اما همچنان در احتمال زنده ماندن فرد تاثیرگذارند.
##درخت تصمیم[^4][1,2]
درخت تصمیم‌  یکی از روش‌های طبقه بندی[^5] به شکل یک درخت می باشد که:

1. برگ ها مشخص کننده‌ی ویژگی هدف(در اینجا احتمال زنده ماندن) می‌باشند.
2. هر یک از گره‌های میانی نقش یک گره تصمیم‌گیری بر اساس یک ویژگی را ایفا می‌کنند که دارای یک زیر درخت به ازاء هریک از نتایج تصمیم‌گیری می‌باشد
در این درخت سعی می‌شود تا با استفاده از انتخاب شروط مناسب در هر گره تصمیم‌گیری درختی بسازیم که پیشبینی بهتری ارایه دهد.  نمونه‌ای از درخت تصمیم گیری را در شکل زیر مشاهده می‌کنید.
![شکل6-یک نمونه درخت تصمیم](https://upload.wikimedia.org/wikipedia/commons/f/f3/CART_tree_titanic_survivors.png)
در این شکل اگر به یکی از برگ‌های سبز رسیدیم مسافر را نجات‌یافته و در غیر این صورت غرق شده به حساب می آوریم.
الگوریتم‌هایی که برای ایجاد درخت تصمیم استفاده می‌شوند معمولا بشکل بالا به پایین کار می‌کنند به این صورت که در هر مرحله متغیری را که به بهترین شکل مجموعه داده ها را تقسیم می‌کند انتخاب می‌کند. الگوریتم‌های مختلف معیار‌های مختلفی از بهترین ارایه می‌دهند که برای اطلاعات بیشتر می‌توانید به این [لینک](https://en.wikipedia.org/wiki/Decision_tree_learning) مراجعه نمایید.
 نویسنده مقاله مرجع در این روش از ویژگی‌های جنسیت، درجه مسافر، سن و کرایه[^6] استفاده کرده است. در ابتدا داده‌ها صرفا بر اساس جنسیت دسته بندی شده‌اند که دقت 76.79 درصدی حاصل شده است(شکل3). که همانطور که انتظار می‌رفت با نتایج بدست آمده ار روش اول همخوانی دارد چراکه با این شرط هر دو روش به شکلی یکسان با داده برخورد می‌کنند(یعنی مردان را مرده و زنان را نجات یافته به حساب می‌آورند).
در مرحله بعد هرکدام از شاخه‌های مردان و زنان براساس درجه تقسیم بندی شده اند. همانطور که در شکل3 مشخص است برای تمام درجات احتمال زنده ماندن مردان کمتر از 50% می‌باشد که بدین معنی می‌باشد احتمالا بهتر است نتیجه این برگ ها را مرگ در نظر بگیریم. اما شرایط برای زنان بگونه‌ای دیگر است. در شاخه زنان در همه درجات به غیر از درجه 3 احتمال زنده ماندن بیشتر از 50% می‌باشد. اگر نتیجه کلاس 3 را هم زنده ماندن در نظر بگیریم همان نتیجه مرحله قبل(76.79%) بدست می آید چراکه باز هم مردان مرده و زنان نجات یافته به حساب می‌آیند. ولی اگر نتیجه این برگ را مرگ در نظر بگیریم دقت به (77.27%) افزایش می‌یابد.
سپس نوبت به سن می‌رسد. سن یک مقدار نسبتا پیوسته دارد نبابراین تصمیم‌گیری چگونگی انتخاب معیار تصمیم‌گیری بسیار مهم می‌باشد. بصورت کلی افراد با سن کمتر احتمال زنده ماندن بیشتری نسبت به افراد مسن تر داشته اند. در مقاله منبع ذکر شده که بجای اینکه برای همه‌ی درجه های جنسیت ها در درخت، معیار یکسانی انتخاب شود هر کدام از درجه‌ها در هرکدام از جنسیت را بصورت جداگانه مورد بررسی قرار داده تا معیار مناسبی جهت تقسیم بندی هرکدام بر اساس سن انتخاب کنند. انتخاب این معیار براین اساس بوده است که اگر افرادی که سن کمتری از معیار سنی دارند و افرادی که سن بیشتری از معیار سنی دارند را طبقه بندی کنیم خطای طبقه بندی در مجموعه داده آموزشی[^7] کمتر باشد. پس از این کار دقت به 78.94% افزایش یافت.متاسفانه منبع ذکر شده جزئیات بیشتری در رابطه با چگونگی انتخاب معیار‌ها و یا حتی مقدار دقیق معیار‌ها ذکر نکرده است.

##جنگل تصادفی[^8][3,2]
درخت تصمیم‌گیری در عمق‌های زیاد گرایش به یادگیری الگو‌های غیر معمول دارد که باعث بیش‌برازش[^9] بر روی داده‌های آموزشی می‌شود (یعنی بر روی
داده‌های آموزشی بسیار خوب جواب می‌دهد اما بر روی داده‌های جدید دارای خطای زیاد می‌باشد). یکی از روش‌هایی که برای رفع این مشکل پیشنهاد می‌شود استفاده از جنگل تصادفی می‌باشد.
اساس این روش بدین صورت می‌باشد که سعی می‌شود درخت‌های مختلفی را ایجاد کرده و سپس برای بدست آوردن نتیجه نهایی از نتایج این درخت ها میانگین گرفته یا نتیجه‌ای که بیشترین تعداد تکرار را دارد انتخاب می‌شود. برای مثال شکل زیر را در نظر بگیرید 
![شکل7-یک نمونه جنگل تصادفی ساده](http://i.imgur.com/Ebl9HeJ.png)
 حال مسافری زنی که جایگاهی در درجه یک دارد و در (Southampton(s سوار کشتی شده است را در نظر بگیرید. دو درخت اول و سوم فرد را نجات‌یافته طبقه‌بندی می‌کنند در حالی که درخت دوم مرگ مسافر را پیشبینی می‌نماید.بنابراین نجات یافتن به عنوان نتجه بازگردانده می شود در این روش سعی می‌شود که درخت تا حد امکان عمیق شود ولی از آنجایی که روش رشد درخت‌ها مشابه یکدیگر است لازم است که روش‌هایی جهت بوجود آوردن تصادف [^10] استفاده شوند.
اولین روش استفاده از کیسه بندی[^11] می‌باشد که از تکنیک Bootstrap aggregating استفاده می‌کند. در این روش بر روی داده‌های ورودی یک نمونه‌گیری با جایگذاری انجام می‌شود البته به گونه‌ای که واریانس کاهش داده شده تا دقت اگوریتم‌های یادگیری ماشینی افزایش یابد. برای مثال تابع sample در زبان R در مقاله ذکر شده است.
>sample(1:10, replace = TRUE)
>3 1 9 1 7 10 10 2 2 9

همانطور که مشخص می‌باشد نمونه برگردانده شده همچنان دارای 10 عنصر می‌باشد ولی بعضی از عناصر آن تکراری می‌باشند. در این روش بطور میانگین 37% عناصر از ارایه ورودی حذف می‌شوند. بدین صورت درخت‌‌‌هایی که از این ورودی ها ایجاد می‌شوند با هم اندکی متفاوت رشد خواهند کرد ولی همچنان عوامل تاثیر گذاری مانند جنسیت به احتمال زیاد به عنوان اولین معیار تقسیم‌بندی استفاده خواهد شد. برای اینکه این مشکل نیز حل شود از روش دیگری برای ایجاد تصادف  استفاده می‌شود. در این روش بجای استفاده از تمام ویژگی‌های موجود به عنوان معیار تصمیم‌گیری از تعداد محدودی از آنها (معمولا ریشه دوم تعداد ویژگی‌‌ها که در اینجا 10 می‌باشد استفاده می‌شود که عدد 3 را برای این مسئله نتیجه می‌دهد) استفاده می‌شود بدین صورت که در هر گره تصمیم گیری مجموعه متفاوتی از ویژگی‌ها جهت انتخاب ارایه میشوند می‌شوند. برای مثال برای یک درخت،اجازه انتخاب از بین سن، درجه،جنسیت برای اولین معیار تقسیم بندی (root) داده می‌شود در حالی که برای درختی دیگر اجازه انتخاب از بین سن ، تعداد اعضاء خانواده و محل سوار شدن داده می‌شود بنابراین بسیاری از درختان امکان انتخاب جنسیت به عنوان اولین معیار نخواهند داشت. همین روال برای سایر گره های تصمیم گیری طی می شود. بنابراین درخت‌های متفاوت تری تولید خواهند شد. با استفاده از این دو روش مجموعه‌ای از درختان متفاوت خواهیم داشت که برای هر ورودی پس از دادن آن به همه عنوان ورودی همه درخت ها پاسخی که بیشترین تعداد را داشته باشد برخواهیم گزید. در مقاله مربوطه برای پیشبینی سن افرادی که سن آنها ذکر نشده در زبان R با استفاده از کسانی که سن آنها در داده‌ها آورده شده است و با استفاده از تابع rpart  یک درخت تصیمیم با هدف پیشبینی سن ایجاد شده که برای پیشبینی سن افراد فاقد این ویژگی استفاده شده است. پس از جایگذاری سن‌های پیشبینی شده، در زبان R و با استفاده از تابع randomForest ، تعداد 2000 درخت تصادفی ایجاد کرده است. در نهایت نتایجی که از این روش بدست آمده اند دارای دقت 81.342% درصد می‌باشند.
نتایج بدست آمده از روش‌های ذکر شده در شکل زیر مقایسه شده است.
![شکل8-مقایسه نتایج](http://i.imgur.com/KGo6GaP.png)


# آزمایش‌ها
##پیش‌نیاز:
جهت اجرای کد برنامه که از [اینجا](https://github.com/Amir-zsh/Titanic-survivals) قابل دسترسی می‌باشد، نیاز به ماژول‌هایی می‌باشد که در فایل requirements.txt موجود در لینک داده شده ذکر شده اند.
برای نصب ماژول‌ها دو راه وجود دارد:
راه اول: همان ابتدا با استفاده از دستور زیر ماژول‌های موجود در فایل را نصب کنید. این روش معمولا به خطا می‌انجامد چراکه بعضی از ماژول‌ها به راحتی قابل نصب نمی‌باشند.
>pip install –r requirements.txt

روش دوم: نرم‌افزار miniconda متناسب با سیستم عامل خود را از [اینجا](http://conda.pydata.org/miniconda.html) دریافت و نصب نمایید. Conda یک برنامه package manager می‌باشد که روش سریعی را جهت استفاده از package ها فراهم می‌آورد. پس از اینکه مراحل نصب تمام شد با استفاده از دستور  conda create -n myenv python  یک virtual environment بسازید و با دستور activate myenv آنرا فعال کنید(می‌توانید از اسم دلخواه خود به جای myenv استفاده نمایید). اکنون با دستور conda install numpy ماژول numpy را نصب کنید. سایر ماژول ها با استفاده از دستوری که در روش اول ذکر شد قابل نصب می‌باشند. 
##پیش‌پردازش:
داده‌های مسئله را می‌توانید که سایت مسابقه در یافت شده اند داخل پوشه data در صفحه github پروژه قابل دسترسی می‌باشد. برای اینکه داد‌‌ه‌ها در الگوریتم‌های بکار رفته قابل استفاده باشد، لازم است که یک عملیات پیش‌پردازش بر روی آنها انجام شود. برای خواندن و پردازش فایل‌های CSV از کتابخانه pandas پایتون استفاده شده است.
همانطور که گفته شد داده‌های مسئله دارای دو فایل train.csv و test.csv می‌باشد ولی از آنجایی که داده‌های موجود در فایل test.csv حاوی
ستون نشان دهنده‌ی نجات یافتن یا نیافتن نمی‌باشند برای بدست آوردن دقت نتایج حدس زده شده لازم است که آنها در صفحه مسابقه قرار دهیم که این کار زمانبر می‌باشد. جهت سادگی کار داده‌های train.csv را که حاوی اطلاعات کامل می‌باشند را به دو قسمت بصورت 30% برای تست و 70% برای یادگیری تقسیم می‌کنیم تا فرایند آزمایش بصورت آفلاین قابل انجام ‌باشد.
بسیاری از داده‌های داده شده دارای مقادیر غیر عددی می‌باشند که لازم است جهت کارکرد صحیح روش‌ها به مقادیر عددی تبدیل شوند. همچنین مقادیر بسیاری از سطر‌های جدول دارای مقادیر null می‌باشند که این مقادیر قابل قبول نمی‌باشند. این سطر‌ها را می‌توان حذف کرد یا مقداری را در خانه‌های خالی جایگزین نمود. در پیاده‌سازی این قسمت با استفاده از تابع interpolate(درون‌یابی) موجود در کتابخانه pandas مقادیر خالی سن جایگزین شده‌اند.ستون cabin را به علت تعداد زیاد مقادیر null، ستون name و ستون ticket را نیز به این دلیل که برای هر فرد منحصر به فرد می‌باشد و یافتن روابط در آنها دشوار می‌باشد از داده‌ها حذف می‌کنیم. ستون‌های دارای مقادیر غیر عددی یا ستون‌هایی که عدد آنها نشان دهنده مقدار آنها نمی باشد را نیز به ستون‌هایی، به تعداد مقادیر مختلفی که می‌توانند داشته باشند تقسیم می‌کنیم ‌برای مثال ستونPclass که می‌تواند دارای مقادیر 1،2یا3 باشد، به سه ستون 1و2و3 تقسیم می‌شود که برای فردی که در کلاس 3 بوده این ستون‌ها به ترتیب مقادیر 0و0و1 خواهند داشت. اکنون سطر‌هایی را که که هنوز دارای مقادیر null می‌باشند حذف می‌کنیم با انجام این کارها از 891 سطر موجود 889 سطر را جهت استفاده خواهیم ‌داشت. مراحل ذکر شده در فایل DataManipulate.py قابل مشاهده می‌باشند. همچنین این فایل حاوی تابعی برای محیا کردن داده‌های فایل تست می‌باشد که در این فاز مورد استفاده قرار نگرفته است.
##روش‌ها:
###درخت تصمیم:
درخت تصمیم در قسمت کار‌های مرتبط توضیح داده شد. نتایج در هر بار اجرا متفاوت می‌باشد لذا میانگین 20 بار اجرا در نظر گرفته شده است  نتایج بدست آمده در جدول زیر آورده شده.
![شکل9-نتایج آرمایش  درخت تصمیم](http://i.imgur.com/UhxVsqc.png)
همانطور که انتظار می‌رفت درخت در عمق‌های زیاد دچار بیش‌برازش[^9] می‌شود.
پیاده سازی این قسمت در فایل DecitionTree.py آورده شده است.
###جنگل تصادفی:
این روش نیز در کارهای مرتبط توضیح داده شده است. مانند روش قبل میانگین 20 بار اجرا در نظر گرفته شده است و نتایج در جدول زیر آورده شده است.
![شکل10-نتایج آرمایش روش جنگل تصادفی](http://i.imgur.com/PbJw1wV.png)
پیاده سازی این قسمت در فایل RandomForest.py آورده شده است.
###افزایش شیب‌دار[^12]:
در این روش ایده اصلی این می‌‌باشد که یک سری از درختان ایجاد کنیم که هر درخت سعی در تصحیح پیشبینی‌‌هایی دارد که درخت پیشین اشتباه انجام داده است. سرانجام پاسخ نهایی می‌تواند برای مثال ترکیبی وزن‌‌دار از پاسخ هر یک از درخت ها می‌‌باشد. با استفاده از این روش و بدون میانگین‌گیری نتایج ثابت زیر بدست می‌‌آیند:
آزمایش روی مقادیر train شده : 0.90850.
آزمایش روی مقادیر train نشده: 0.8134.
پیاده سازی این قسمت در فایل GradientBoost.py آورده شده است.
###شبکه‌های عصبی[^13]:
شبکه‌های عصبی مدلی می‌باشند که با الهام از سیستم‌های زیستی بوجود آمده‌اند. در یک شبکه از عصب‌های زیستی مانند مغز عصب‌ها سلول‌های جداگانه‌ای می‌باشند که ورودی دریافت کرده بر روی آن عملیات انجام می‌دهند سپس حاصل را به عصب یا عصب‌های دیگری که به آنها متصل می‌باشند منتقل می‌نمایند. این را رفتار را ‌می‌توان با استفاده از یک عصب مصنوعی مدل سازی نمود.
![شکل11-یک عصب در شبکه عصبی](http://i.imgur.com/bQjkEFQ.png)
  شکل بالا یک عصب را نشان می‌دهد که ورودی‌هایی را دریافت کرده با استفاده از  f آنها را پردازش می‌کند و خروجی‌هایی را تولید می‌نماید. می‌توان مجموعه‌ای از این عصب‌ها را در چند لایه بصورتی که در شکل زیر مشاهده می‌کنید بکار برد.
  ![شکل12-یک شبکه عصبی با چهار لایه](http://i.imgur.com/JUZGeEe.png)
   یک لایه مربوط ورودی(input) می‌باشد. تعداد عصب‌ها در این لایه معمولا با تعداد ویژگی‌ها ( در اینجا سن، کلاس، جنسیت، ...) برابر می‌باشد.  یک شبکه عصبی می‌تواند فاقد لایه میانی(hidden) باشد یا شامل یک یا چند لایه از این نوع باشد. (در آزمایش یک لایه میانی در نظر گرفته شده است).لایه آخر که لایه خروجی (output) نام دارد نیز می‌تواند شامل یک یا چند عصب بسته به طراحی شبکه باشد (در این آزمایش یک عصب برای این لایه در نظر گرفته شده است).  همچنین در این شبکه هر ارتباط بین عصب‌ها دارای یک وزن می‌باشد. بنابراین برای مثال در شکل بالا تابع فعال سازی برای عصب Hidden 1 به شکل زیر می‌باشد.
   
$$h_1 = f(w_{1,1}\cdot i_1, w_{2, 1}\cdot i_2, w_{3,1}\cdot i_3, w_{4,1}\cdot i_4)$$
 یکی از تابع‌های فعال سازی معمول تابع logistic می‌باشد. که یکی از مزایای آن این است که قابل مشتق‌گیری ‌می‌باشد. در زیز فرمول تابع را مشاهده می کنید.
 $$f(x_1, x_2, \ldots) = \frac{1}{1 + e^{-x_1-x_2-\ldots}}$$
 روش یادگیری:  داده ها در یک شبکه عصبی در دو حالت جریان پیدا می‌کنند. حالت اول زمانی که شبکه در حال یادگیری می‌باشد. حالت دوم زمانی است که شبکه درحالت عادی (پس از یادگیری ‌می‌باشد). داده‌ها از طریق عصب‌های ورودی وارد می‌شوند و پس از عبور از لایه‌های میانی وارد عصب‌های خروجی ‌می‌گردند.  این روش طراحی feedforward نامیده می‌شود. شبکه‌های عصبی با استفاده از یک عنصر بازخورد یادگیری که backpropagation نامیده می‌شود یادگیری می‌کنند. در این روش مقادیری که در شبکه تولید می‌شود با مقادیری که ‌می‌بایست تولید شود مقایسه می‌گردد و از تفاوت بین انها برای اصلاح وزرن‌های بین ارتباطات استفاده می‌شود. این فراید از لایه خروجی، سپس به لایه‌های میانی و سرانجام، به لایه ورودی به طرف عقب می‌رود.
در پیاده سازی این قسمت از ماژول neurolab در زبان پایتون و شبکه feed forward multilayer perceptron استفاده شده است. در ماژول ذکر شده الگوریتم‌های زیادی برای برای یادگیری درنظر گرفته شده است. در پیاده از بین الگوریتم‌های ارایه شده برای MLP[^14]  از الگوریتم Rprop[^15] استفاده شده است. سایر الگوریتم‌ها یا نتیجه‌ی مطلوبی نداشتند یا اینکه به دلیل نامعلومی به سرعت فرایند یادگیری را پایان می‌دادند. برای خروجی یک عصب در نظر گرفته شده است. اگر مقدار عصب بیشتر از ۰.۵  بوده باشد فرد زنده و در غیر اینصورت غرق شده پیشبینی شده است.  قبل از بررسی نتایج لازم است که عبارت epoch توضیح داده شود. Epoch یک تکرار کامل روند یادگیری داده‌های داده شده جهت یادگیری می‌باشد. 
نتایج در جدول زیر آورده شده است.
سعی شده مقادیر به گونه در نظر گرفته شوند که نشان دهنده تاثیر تعداد Epoch‌ها و تداد عصب‌های میانی باشند.نتایج در جدول زیر آورده شده است.
 ![شکل13-نتایج آزمایش شبکه عصبی](http://i.imgur.com/5MuDX4l.png)
 پیاده سازی این قسمت در فایل NeuralNetwork.py آورده شده است.
 از جمله کارهایی می‌توان در فاز بعد جهت بهینه کردن نتایج انجام داد استفاده از روش‌هایی جهت حدس دقیق‌تر مقادیر null و استفاده از داده‌های test جهت گرفتن نتیجه روش‌های بکار رقته از سایت مسابقه می‌باشد.
# کارهای آینده

# مراجع
[1]Eric Lam,Chongxuan Tang.(2015).Titanic – Machine Learning From Disaster
[2]Xiaodong Yang .(2015).Titanic – Machine Learning From Disaster
[3]Kunal Vyas, Zeshi Zheng, Lin Li.(2015).Titanic - Machine Learning From Disaster

**پیوندهای مفید**
+ [صفحه این مسابقه](https://www.kaggle.com/c/titanic)
+ [درخت تصمیم](https://en.wikipedia.org/wiki/Decision_tree_learning)
+ [توصیح تصویری درخت تصمیم](http://www.r2d3.us/visual-intro-to-machine-learning-part-1/)
+ [روشnaive bayes](http://scikit-learn.org/stable/modules/naive_bayes.html)
+ [توضیحnaive-bayes به زبان ساده ](https://stackoverflow.com/questions/10059594/a-simple-explanation-of-naive-bayes-classification/20556654#20556654)
+ [آشنایی با یادگیری ماشینی](http://www.toptal.com/machine-learning/machine-learning-theory-an-introductory-primer)
+ [توضیح درخت تصمیم](http://dms.irb.hr/tutorial/tut_dtrees.php)
+ [جنگل تصادفی](https://en.wikipedia.org/wiki/Random_forest)


[^1]:dataset
[^2]:class
[^3]:Comma-separated values
[^4]:decision tree
[^5]:classify
[^6]:fare
[^7]:training data
[^8]:ramdom forest
[^9]:overfit
[^10]:randomness
[^11]:bagging
[^12]:Gradient Boosting
[^13]:Neural Networks
[^14]:multi layer perceptron
[^15]:resilient backpropagation