ایجاد واژه‌نامه از روی پیکره دوزبانه

به نام خدا

ایجاد واژه‌نامه از روی پیکره دوزبانه یکی از گام‌های اصلی برای رسیدن به یک سامانه مترجم ماشینی است. ترجمه ماشینی یعنی تبدیل خودکار متن زبان مبدا به متن معادل آن در زبان مقصد. عمده روش‌های ترجمه ماشینی بر مبنای مدل‌های آماری و یادگیری ماشین بنا شده است که از یک پیکره دوزبانه، مجموعه‌ی عظیمی از متن که به هر دو زبان مبدا و مقصد وجود داشته و در سطح جمله هم‌تراز شده‌اند، برای یادگیری معادل‌ها به صورت آماری استفاده می‌کنند.

پیکره دوزبانه غالبا در سطح جمله هم‌تراز می‌‌شود. حال مسئله اصلی این خواهد بود که چطور می‌شود این جمله‌ها را در سطح کلمه هم‌تراز نموده و واژه‌نامه‌ای به صورت خودکار از کلمات معادل، از روی پیکره دو زبانه استخراج نمود.

۱. مقدمه

با گسترش روزافزون حجم داده‌ها و اطلاعات و همچنین گسترش تعاملات بین‌المللی، برقراری ارتباط تبدیل به یکی از مهم‌ترین چالش‌های بشر امروز شده است. یکی از مشکلات عمده‌ای که در این زمینه وجود دارد عدم امکان برقراری ارتباط توسط دادگانی به زبان دیگر است. ترجمه ماشینی یکی از راه‌هایی است که برای حل این مشکل ارائه شده و به خاطر اهمیت آن، در سالیان اخیر توجه بسیار زیادی به آن شده است. رویکردهای متفاوتی در پیاده‌سازی این ایده وجود دارد که رویکرد مبتنی بر قانون از برجسته‌ترین آن‌ها بوده و در سال‌های اخیر رویکرد جدید مبتنی بر آمار مطرح شده است. رویکرد آماری ترجمه ماشینی را، مبتنی بر پیکره1 نیز می‌نامند. چراکه سیستم طراحی‌شده، تمام اطلاعات موردنیاز خود را، از یک پیکره موازی دوزبانه2 که مجموعه بسیار بزرگی از جملات هم ترجمه است، استخراج می‌نماید. مبنای عملکرد یک مترجم آماری، نظریه تصمیم آماری است. تئوری تصمیم آماری روش شناخته‌شده‌ای برای ساخت یک سیستم تصمیم‌گیری مرکب، از چندین منبع اطلاعاتی موجود، با هدف حداقل سازی خطای تصمیم‌گیری می‌باشد. پارامترهای چنین سیستمی با استفاده از مجموعه بزرگی از دادگان آموزشی (پیکره موازی دوزبانه) تخمین زده می‌شود. به کمک این روش امکان ترجمه متون تخصصی در زمینه‌های مختلف با بررسی مقالات موجود در آن زمینه و ترجمه آن‌ها میسر می‌شود.
یکی از مراحل ترجمه‌ی ماشینی ساخت واژه‌نامه با استفاده از هم‌تراز کردن لغات در جملات هم‌ترجمه است که در ادامه به آن خواهیم پرداخت.

۲. مدل‌های هم‌ترازی

۲.۱. هم‌ترازی لغات3

مسئله هم‌ترازی لغات بدین صورت تعریف می‌شود که جمله e = e_{1}^{I} در زبان مبدأ و ترجمه آن در زبان مقصد f = f_{1}^{J} داده شده، هدف یافتن تناظر بین لغات e و f است. ارتباط بین دو لغت توسط جفت (i,j) مشخص می‌شود که مکان آن­ها را در f و e مشخص می‌کند و 1\leqq i\leqq I \text{ , } 1 \leqq j \leqq J .
این رابطه می‌تواند توسط گراف بدون جهت A با I+J رأس یا ماتریس B با I×J خانه نمایش داده شود که [3]

b_{ij} = 1 \text { if } e_{i} \text{ is linked to } f_{j} \text{ else } b_{ij} = 0 \text{ (1) }

دو شکل زیر این دو روش را برای جمله­ انگلیسی and the program has been implemented و جمله فرانسوی معادل le programme a ´et´e mis en application نشان می‌دهد.[7]

شکل 1. نمایش هم‌ترازی در قالب گراف

شکل 2. نمایش هم‌ترازی در قالب ماتریس

پارامتر‌ها‌ی ماشین ترجمه آماری با بررسی پیکره‌‌های تراز شده در سطح لغت برآورد می‌شوند و بالعکس، هم‌ترازی خودکار لغات، بهترین هم‌ترازی را با استفاده از مدل ماشین ترجمه آماری انتخاب می‌کند.فرایند چرخشی حاصل از این دو تفکر، نمونه‌ای از الگوریتم امید ریاضی-بیشینه کرد 4 را نتیجه می‌دهد.[6]

۲.۲. مدل‌های هم‌ترازی چند به یک[9]

جهت کم کردن پیچیدگی محاسباتی برای مدل‌ها این محدودیت را قایل می‌شویم که هر کلمه هدف تنها با یک کلمه مبدأ بتواند متناظر شود. در نتیجه ما می‌توانیم تناظر بین دو جمله را با دنباله a = a_{1}^{J} نشان دهیم و a_j = i را مکان لغتی در جمله مبدأ که با آن متناظر است تعریف کنیم.
دنباله a_{i}^{j} متغیر پنهانی‌است که در پیکره موازی مشخص نشده اما برای ساخت مدل‌ها‌‌ی درست فرایند ترجمه لازم است محاسبه شود. احتمال تولید f = f_{1}^{J} از e = e_{1}^{I} با هم‌ترازی a = a_{1}^{J} این را با (P(a_{1}^{J},f_{1}^{J}|e_{1}^{J} مدل می‌کنیم. بعضی‌ مواقع یک کلمه در جملهٔ مقصد ترجمهٔ هیچ کلمه‌ای در جملهٔ مبدأ نیست، با در نظر گرفتن توکن خالی‌ 5چنین امکانی را به مدل اضافه می‌کنیم.
هم ترازی که احتمال توأم جمله هدف را از جمله مبدأ ماکسیمم کند، همترازی ویتربی6 نام دارد و این‌گونه محاسبه می‌شود:

شکل 3. فرمول ویتربی(فرمول شماره 2)

در ادامه به معرفی چند مدل هم‌ترازی می‌پردازیم.

۲.۳. مدل‌های هم‌ترازی آی‌بی‌ام7

مدل‌های آی‌بی‌ام از ۱ تا ۵ به ترتیب افزایش پیچیدگی‌ و تعداد پارامتر‌ها نام‌گذاری شده‌اند.

۲.۳.۱. مدل‌ 1[6]

در مدل ۱ فرضیات زیر در نظر گرفته می‌شود:

  • طول جملهٔ مقصد (J) غیر مستقل از I است.

  • برای هر کلمهٔ هدف، همه تراز‌ها هم احتمال هستند و به مکان کلمه در جمله بستگی ندارد در واقع توزیع احتمالی مدل هم‌ترازسازی، یکنواخت در نظر گرفته می‌شود.
    (P(a_{j}|f_{1}^{j-1},a_{1}^{j-1},J,e_{1}^{I}) = 1/(I+1) (3

  • هنگام محاسبه هم‌ترازی، کلمه هدف تتها به کلمه مبدأی که با آن متناظر است، وابسته است.
    (P(f_{j}|a_{1}^{j},f_{1}^{j-1},J,e_{1}^{I}) = T(f_{j}|e_{a_j}) (4
    (T(f_{j}|e_{a_j} احتمال ترجمه کلمه به کلمه از است.

۲.۳.۲. مدل‌ 2[5]

در مدل دو ما فرض می‌کنیم که مکان تراز a_{j} برای کلمه f_{j} بهj و طول‌های جملات،I و J بستگی دارد. در نتیجهٔ چنین فرضی‌ ماتریس هم‌ترازی به ماتریس قطری میل می‌کند.
(P(a_{j}|f_{1}^{j-1},a_{1}^{j-1},J,e_{1}^{I}) = a(a_{j},J,I) (5

۲.۳.۳. مدل‌ها‌ی مبتنی بر باروری8[7]

مدل 1 و 2 بر اساس انتخاب کار می‌کردند، یعنی‌ به هر لغت هدف یک لغت مبدأ را اختصاص می‌دادند، اما در هم‌ترازی دستی‌ می‌بینیم که لغات مختلف تمایلات مختلفی‌ برای تراز شدن با تعداد متفاوتی عدد را دارند و همین ویژگی باعث شده تا نحوه عملکرد مدلهای باقی‌ مانده از این دو مدل متفاوت شود.متغیر رندوم\phi_{e}را برابر با تعداد لغاتی که e در یک‌ هم‌ترازی به آنها متصل است تعریف می‌کنیم و آنرا حاصلخیزی e می‌نامیم. در مدل‌های مبتنی بر حاصلخیزی ابتدا حاصلخیزی تمام لغات مبدأ را مشخص می‌کنیم،سپس تصمیم میگیریم که هر لغت کدام کلمات هدف =t_{1,i},…,t_{I,\phi_{i}}t_{i} را تولید می‌کند. این دنباله کلمات یک تبلت9 و مجموعه‌ تبلت‌ها، تابلو10 نامید میشود. سپس مکان هر کلمه در تابلو در جمله مقصد را مشخص می‌کنیم(\pi_{I,k}). بنابرین داریم:

P(\pi_{0}^{I},t_{0}^{I}|e_{0}^{I}) = P(\phi_{0}^{I}|e_{1}^{I})P(t_{0}^{I}|\phi_{0}^{I},e_{1}^{I})P(\pi_{0}^{I}|t_{0}^{I},e_{1}^{I}) (6)

اگر <t,$\pi$> را مجموعه‌ جفت‌هایی تعریف کنیم که f و a یکسانی را نتیجه میدهند خواهیم داشت:</t,$\pi$>

P(f,a|e) = \Sigma_{(t,\pi)\Subset {(f,a)}} P(t,\pi|e) (7)

۲.۳.۴. مدل‌ 3

مدل 3 یک مدل مبتنی‌ بر باروری است که فرضیات زیر در آن در نظر گرفته شده:

  • احتمال حاصلخیزی یک لغت فقط به همان لغات بستگی دارد و نه به همسایگانش و حاصلخیزی آن‌ها

  • ترجمه فقط به جفت کلمه مبدا و مقصد بستگی دارد و نه کلمات مبدا یا مقصد قبلی‌

  • مرتب‌سازی فقط به مکان کلمه هدف و طول دو جمله ربط دارد.

۲.۳.۵. مدل‌ 4[8]

مدل 3 کلمات یک تبلت را غیر مستقل از هم تراز می‌کرد.در مدل 4 مکان اولین کلمه یک تبلت مشخص می‌شود و مکان سایر کلمات تبلت به مکان کلمه اول وابسته است.
P(\pi_{i,1} = j|\pi_{1}^{i-1},t_{0}^{I},\phi_{0}^{I},e_{0}^{I}) = d_{1}(j-c_{i-1}|A(e_{i-1}),B(f_{j})) (8)
c_{i} سقف میانگین مکان‌ها‌ی تبلت i در جمله مقصد است.A و B توابعی هستند که کلمات را بر اساس تاثیری که روی ترتیب ترجمه دارند، طبقه‌بندی می‌کنند.

۲.۳.۶. مدل‌ 5

در مدل ۳ و ۴ هوریستیکی وجود ندارد که از تخصیص مکانی ک قبلا استفاده شده، جلوگیری کند یعنی‌ ممکن است به ازای جفت i,k، نابرابر t(I,k) برابر داشته باشیم. مدل ۵ این ناقص را رفع کرده اما به پیچیدگی مدل افزوده.

۲.۴. مدل پنهان مارکوف11[4]

در ترازبندی صورت گرفته توسط انسان، تراز یک کلمه به شدت به تراز کلمه قبلی خود وابسته است، بنابرین به مدلی‌ جهت در نظر گرفتن این وابستگی نیاز داریم. اگر تصور کنیم که تراز a_{j} تنها به تراز قبلی‌اش وابسته است(فرض مارکوف)، میتوانیم مدل پنهان مارکوف را با مرتبط کردن حالت‌ i با کلمه e_{j} تعریف کنیم. همچنین تصور می‌کنیم f_{j} تنها به لغت متناظر خود، e_{a_j} وابسته است و از حالت i با احتمال (t(f_{j}|e_{i} انتشار می‌یابد.

۲.۵. کارهای مشابه[12]

۲.۶. دادگان[11]

پیکره میزان مجموعه‌ای است حاوی بیش از ۱ میلیون جمله از متون انگلیسی (اغلب در حوزه ادبیات کلاسیک) و ترجمه این جملات به فارسی که توسط دبیرخانه شورای عالی اطلاع‌رسانی تهیه شده‌است.

۳. آزمایش‌ها

پروژه‌هایی در این زمینه که با روش‌های مدل‌سازی مختلف پیاده‌سازی شده‌اند، موجود‌اند که برخی از آن‌ها مرتبط با این تکلیف درس یادگیری ماشین می‌باشند، من در این فاز به پباده‌سازی مدل آی‌بی‌ام 1 پرداختم و در آن از یکی از همین پروژه‌ها استفاده کرده‌ام.
لینک پروژه در گیت
همان‌گونه که گفته شد در مدل آی‌بی‌ام 1، در ابتدا همه‌ی احتمال‌ها یکسان در نظر گرفته شده و از توزیع نرمال محاسبه می‌شود. حال اگر بررسی پیکره به جای یکبار، چندین بار صورت گیرد و هر بار از احتمالات حاصل از مرحله قبل استفاده شود، نتیجه دقیق‌تر خواهد بود. حلقه داخل کد و متغیر loop_count به همین منظور استفاده شده‌اند. مسلما هر چقدر تعداد دفعات این تکرار بیشتر شود، نتیجه دقیق‌تر می‌شود. نتیجه برای دو فایل متن موجود در پروژه گیت‌هاب در زیر آمده است:

شکل 4.نتایج پس از یکبار بررسی داده‌های مثال

شکل 5.نتایج پس از سه بار بررسی داده‌های مثال

در برنامه اصلی از ساختمان داده دیکشنری استفاده شده بود که برای پیکره‌ای به بزرگی پیکره میزان کارآمد نبود و به خطای حافظه منجر می‌شد. برای حل این مشکل به جای دیکشنری از جدول استفاده کرده‌‌ام، با این‌کار مشکل حافظه حل شد اما سرعت برنامه به دلیل بزرگی پیکره رضایت‌بخش نیست.
در مرحله بعد اعداد و علایم نگارشی را با اجرا فایل clear.py حذف کرده‌ام تا در لغت‌نامه ظاهر نشوند.
در ادامه به ترتیب قسمتی از نتیجه اجرای برنامه روی 1000 خط ابتدای پیکره و انتخاب لغات با احتمال بیش از 0.25 و اجرای برنامه روی 50000 خط ابتدای پیکره و انتخاب لغات با احتمال بیش از0.5 آورده‌شده‌اند. طبیعتا هر‌قدر جملات بیشتری بررسی شوند و نیز هر‌قدر لغت‌نامه سخت‌گیرانه‌تر ساخته شود(به عبارتی تنها لغات با احتمال هم‌ترازی بالا انتخاب شوند)، دقت بیشتر خواهد بود.
از آنجا که نتایج صحیح هم‌ترازی به صورت آماده وجود ندارد و باید دستی حساب شود، فقط دقت همین دو حالت محاسبه شده است.

شکل 6.بررسی 1000 خط با احتمال بیش از 0.25

تعداد کل کلمات تعداد کلمات صحیح دقت
34 3 0.0882

شکل 7.بررسی 50000 خط با احتمال بیش از 0.5

تعداد کل کلمات تعداد کلمات صحیح دقت
57 43 0.7543

لازم به ذکر است جهت رعایت حقوق کپی رایت پیکره میزان در گیت قرار داده نشده است.

۴. بهبود نتایج

همان‌طور که در فاز اول توضیح داده شد، در مدل آی‌بی‌ام1 برای هر کلمه هدف، همه‌ی تراز‌ها هم‌احتمال هستند و به مکان کلمه در جمله بستگی ندارد و این ضعف در آی‌بی‌ام2 برطرف شده‌است. در این فاز به پباده‌سازی مدل آی‌بی‌ام2 و همچنین بهبود سرعت در آی‌بی‌ام1 پرداخته شده‌است.
ایجاد ایندکس روی جداول پایگاه داده و انجام پرس‌و‌جو‌های انتخاب12 با استفاده از ایندکس باعث افزایش سرعت این نوع پرس‌و‌جو‌ها و در پرس‌و‌جو‌های درج13 و به‌روز‌رسانی14 باعث کاهش سرعت می‌شود.[13][14] برای افزایش سرعت برنامه از این تکنیک در پرس‌و‌جو‌های انتخاب، استفاده شده‌است.
در آی‌بی‌ام2 نسبت به آی‌بی‌ام1 تفاوت درصد تخصیص‌های صحیح و ناصحیح بیشتر و نتایج دقیق‌تر می‌شود زیرا در عمل، در ترجمه، مکان کلمه هدف و مقصد در زوج جملات نزدیک به هم‌اند و در آی‌بی‌ام2 نیز احتمال هم‌ترازی در نزدیکی قطر بیشتر است. نمونه‌ای از این تفاوت برای جملات دو فایل متنی واقع در گیت‌هاب در ادامه نمایش داده شده‌است.

شکل 8.مقایسه کارایی آی‌بی‌ام1 و آی‌بی‌ام2 پس از 3 و 10 بار بررسی داده‌ها

نتیجه اجرای آی‌بی‌ام2 روی 1000 خط اول پیکره میزان با مقدار loop_count =1 و انتخاب هم‌ترازی‌هایی با احتمال بیش از 0.25 در این لینک و با loop_count =3 و انتخاب لغات با احتمال بیش از 0.8 در این لینک قرار داده شده است. دقت این دو آزمایش در ادامه محاسبه شده‌است. توجه کنید همین آزمایش برای آی‌بی‌ام1 در فاز قبل، دقت 0.0882 را نتیجه داده بود.

آزمایش اول: loop_count =1 , probability >= 0.25

تعداد کل کلمات تعداد کلمات صحیح دقت
126 34 0.269

آزمایش دوم: loop_count =3 , probability >= 0.8

تعداد کل کلمات تعداد کلمات صحیح دقت
239 138 0.577

۵. کارهای آینده

پیکره میزان یک ترجمه از یک متن داستانی است، با بررسی مقالات تخصصی در زمینه‌های مختلف می توان لغات تخصصی و یا معانی تخصصی لغات را استخراج کرد و در پایگاه داده به نحوی این اطلاعات را ذخیره کرد(میتوان یک جدول برای هر یک از علوم بررسی‌شده تهیه کرد و یا ستونی به جدول اصلی اضافه کرد که به ازای هر سطر نشان دهنده‌ی فیلدهایی است که در آن‌ها این معنی از این کلمه استخراج می‌شود). انجام این کار دو حسن دارد:

  1. استفاده در لغت نامه: در حال حاضر نرم افزازهای غیر رایگانی با این ویژگی مانند دیکشنری نارسیس وجود دارند. نارسیس 19 زمینه تخصصی مانند کامپیوتر، اقتصاد، حقوق و تجارت را پوشش می‌دهد.[15] هدف می‌تواند تولید نسخه رایگان لغت نامه‌ای به قدرت نارسیس باشد.

  2. استفاده در ترجمه خودکار: به کمک طبقه‌بندی15 مقالات و به دست آوردن فیلد متن مبدا می‌توان از معانی تخصصی لغات در این فیلد و احتمالشان استفاده کرد.

۶. مراجع

[1] Tiedemann, Jorg. "Bitext alignment." Synthesis Lectures on Human Language Technologies 4.2 (2011): 1-165.
[2] Och, F.J. and Tillmann, C. and Ney, H. and others 1999, Improved alignment models for statistical machine translation, Proc. of the Joint SIGDAT Conf. on Empirical Methods in Natural Language Processing and Very Large Corpora
[3]P. F. Brown et al. 1993. The Mathematics of Statistical Machine Translation: Parameter Estimation. Computational Linguistics, 19(2):263–311.
[4]S. Vogel, H. Ney and C. Tillmann. 1996. HMM-based Word Alignment in StatisticalTranslation. In COLING ’96: The 16th International Conference on Computational Linguistics, pp. 836-841, Copenhagen, Denmark.
[5]Yarin Gal, Phil Blunsom (12 June 2013). "A Systematic Bayesian Treatment of the IBM Alignment Models" (PDF). University of Cambridge. Retrieved 26 October 2015.
[6]KNIGHT, Kevin. A statistical MT tutorial workbook. Manuscript prepared for the 1999 JHU Summer Workshop, 1999.
[7]Brunning, James Jonathan Jesse. Alignment Models and Algorithms for Statistical Machine Translation. Diss. University of Cambridge, 2010.
[8]Zamin, Norshuhani, et al. "A lazy man’s way to part-of-speech tagging." Knowledge Management and Acquisition for Intelligent Systems. Springer Berlin Heidelberg, 2012. 106-117.
[9]Collins, Michael. "Statistical machine translation: IBM models 1 and 2." Columbia: Columbia University (2011).
[10]Liu, Yang, Qun Liu, and Shouxun Lin. "Discriminative word alignment by linear modeling." Computational Linguistics 36.3 (2010): 303-339.
[11]http://www.dadegan.ir/catalog/mizan
[12]https://en.wikipedia.org/wiki/Bitext_word_alignment
[13]http://www.tutorialspoint.com/sqlite/sqlite_indexes.htm
[14]https://www.sqlite.org/queryplanner.html
[15]http://www.narcissoft.com/onlinedic.asp


  1. corpus_based

  2. bilingual parallel corups

  3. word alignment

  4. expectation-maximization algorithm (EM)

  5. null token

  6. viterbi alignment

  7. IBM

  8. fertility-based model

  9. tablet

  10. tableau

  11. hidden markov model

  12. select queries

  13. insert

  14. update

  15. classification

تایید شده

با سلام
بابت تلاشهای انجام شده خسته نباشید میگم
چند نکته ای که باید مدنظر قرار گیرد :
1- فرمولهایی که در متن آورده اید بدون شماره اند و باید شماره داشته باشند.
2- کارهای مشابه باید به صورت فارسی نوشته شود و توضیح داده شود
3-در قسمت کارهای مشابه رفرنسی مشاهده نشد.تفاوت آن با کارهای مرتبط در چیست؟ میتوان قسمت کارهای مرتبط را به روشها یا مدلهای هم ترازی تغییر نام داد
4- در مورد پیکره میزان رفرنس آن نیز گذاشته شود(همان رفرنسی که در سایت وجود دارد)
از توجهتون ممنونم.

تایید شده

با سلام.
مطالب طرح شده از جانب شما از لحاظ غنای علمی و پرداختن به کلیات موضوع تقریباً از وضعیت مناسبی برخوردار است.
لکن؛
1- یکی از ارکان مهم نگارش هر مقاله، چشم نواز بودن ظاهر و حروفچینی مناسب آن نیز می‌باشد که در برخی قسمت‌ها به خوبی رعایت نشده است و حتی برخی حروف از قلم افتاده‌اند.
2-جدول نهایی اعلام نتایج احساس می‌شود که حالت چپ‌چین دارد؛ بهتر بود ستون های این جدول از سمت راست به ترتیب: تعداد کل کلمات، تعداد کلمات صحیح، دقت قرار داده می‌شدند.
3-در مورد کارهای مشابه نیز، بهتر بود به اندازه خیلی کوتاه (در حد 2 خط) به معرفی اجمالی آن کار اختصاص داده می‌شد تا لازم نباشد از متن اصلی مقاله شما به پیوند دیگری برویم.
4-یکی از منابعتان را وب‌سایت ویکی‌پدیا معرفی نموده‌اید که بهتر می‌بود بررسی می‌کردید تا ببینید خود ویکی‌پدیا مطلب مورد نظر شما را از چه منبعی در سایت خود قرار داده و آن را به عنوان منبع معرفی می‌کردید.

موفق باشید.

تایید شده

با سلام و خسته نباشید بابت انجام این فاز از پروژه
نکاتی که میبایست مورد توجه قرار گیرد و در فاز نهایی تصحیح شود خدمتتان تقدیم میشود
1- در مورد داده ای که استفاده میکردید بهتر بود مثالی را از پیکره مورد استفاده برای درک بهتر قرار میدادید.
2- قسمت کارهای مشابه نیاز به توضیح دارد و گذاشتن هایپرلینک به تنهایی مورد قبول نمیباشد.
3- بهتر بود توضیحاتی را در مورد ستونهایی که در جدول نمایش داده شده است ارائه شود تا خواننده بداند هر ستون بیانگر چیست
4- بهتر بود مقایسه ای بین خروجی کار خود و کار دیگران بیان میشد تا بتوان ارزیابی مناسبی از خروجی شما داشته باشیم
5- نحوه محاسبه فرمولهای آی بی ام 1 گفته نشده است. میتوان این قسمت را با یک مثال برای خواننده به وضوح بیان کرد.
6- در قسمت کارهای آینده هیچ ایده ای داده نشده است
7- جملات بدون فعل مانند "در گیت قرار داده نشده." نیز در متن شما مشاهده شد که نیاز است تا اصلاح شود.
با سپاس از توجه شما

تایید شده

با سلام
ضمن تشکر از گزارشی که تهیه‌کرده‌اید توجه شما را به چند نکته جلب می کنم:

  • توضیحات شما مختصر و مفید بود اما به نظرم برای خواننده ای که خیلی اطلاعات کافی در مورد موضوع پروژه شما ندارد، بهتر بود روش پیشنهادی خود برای مسئله را بیشتر توضیح می دادید و دلیل استفاده خود از چنین روشی را بهتر بیان می کردید.

  • بهتر بود قسمتی با عنوان "پیوند های مفید" می گذاشتید و لینک مربوط به داده های میزان را به جای گذاشتن در قسمت مراجع، در آنجا قرار می دادید.

  • پیاده سازی اولیه و ارزیابی دقت آن به خوبی صورت گرفته است، اما می توانستید برای آنکه ارزش کار شما بیشتر مشخص شود، دقت کار خود را با دقت تقریبی سایر روش های موجود مقایسه کنید.

  • بهتر بود جدول هایی که گذاشتید را شماره گذاری می کردید.
    در کل شما هدف از این فاز که انجام یک پیاده سازی اولیه و ارزیابی آن بود را محقق کرده اید.
    موفق باشید.

تایید شده

مطالب را مختصر و مفید بیان کردید و خواننده به خوبی با مطلب ارتباط برقرار می‌کند.
بهتر بود برای پروژه گیت یک فایل readme قرار می‌دادید و کد خود را نیز کامنت گذاری می‌نمودید تا پروژه برای دیگرانی که می‌خواهند در این رابطه کار کنند قابل استفاده باشد.
تعدادی از منابعی که در مراجع ذکر شده‌اند در متن ارجاع داده نشده‌اند.
همچنین شماره گذاری و ذکر توضیح مختصر در رابطه با جداول باعث کاهش ابهام می‌شود.

رد شده
تایید شده

پروژه نسبتا خوب انجام شده نکته قابل ذکر این است که اشکالات نگارشی در متن مقاله باعث شده خوانایی برخی قسمت ها مشکل شود خوب بود فرمول های ریاضی را با استفاده از امکاناتی که "مرتب " در اختیارتان گذاشته بود می نوشتید بهتر بود پیاده سازی سایر روش هارا هم توضیح می دادید همچنین قرار دادن بخشی تحت عنوان نتیجه گیری هم در مقاله مهم است!
موفق باشید

تایید شده

+از بیان فرمول های دشوار و غیر ضروری خوداری نموده اید و با بیان ساده ای به توضیح فرمول های ضروری پرداخته اید.
-توضیحات شما در مورد دادگان بسیار مختصر است ، بهتر بود کمی بیشتر توضیح می دادید.
-بهتر بود در گیت خود در بخش readme توضیح مختصری راجع به کار خود و هر یک از فایل های .py می دادید تا دیگران نیز بتوانند از نتایج زحماتتان استفاده کنند.
+اشاره به کار های مشابه به طور خلاصه به اهمیت کار شما افزوده است.
+همچنین توضیحات مختصر مفید کارهای مرتبط از نکات مثبت کار های شما محسوب می شود.
+نمایش نتایج آزمایشات به شکل جدول و بیان چند نمونه به ارزش کار شما افزوده است.
-بهتر بود دقت هارا با درصد بیان می کردید مثلا تشخیص 43 کلمه از 57 کلمه را با دقت 75% بیان می کردید!
+توجه شما به بهبود سرعت علاوه بر دقت از نکات مثبت پروژه ی شما است.اما بهتر بود سعی کنید این دقت را خیلی بیشتر بهبود بدین .
+بخش کار های آینده مختصر و مفید بود.
موفق باشید.

تایید شده

با سلام و عرض خسته نباشید
علاوه بر نکاتی که دوستان ارائه داشتند، توجه شما را به نکات زیر جلب میکنم:
1- مواردی که در ارزیابی فازهای قبلی گفته شده بود هنوز اصلاح نشده است.
2- هیچ مقایسه ای با کار سایر افراد در این زمینه انجام نشده است
3- در مورد آزمایشات و نتایج به دست آمده توضیح مناسبی داده نشده است
از توجه شما سپاسگزارم