AI :: القرار

تلقائيا أشجار القرار
التحميل الان

AI :: القرار الترتيب والملخص

الإعلانات

  • Rating:
  • رخصة:
  • Perl Artistic License
  • السعر:
  • FREE
  • اسم الناشر:
  • Ken Williams
  • موقع ويب الناشر:
  • http://search.cpan.org/~kwilliams/Module-Build-0.2808/lib/Module/Build/Compat.pm

AI :: القرار العلامات


AI :: القرار وصف

يتعلم تلقائيا أشجار القرار AI :: TIPLETREE هي الوحدة النمطية لليرقم لتعلم تلقائيا أشجار القرارات. استخدام AI :: بلدي DTREE $ = جديد AI :: Contribute؛ # مجموعة من البيانات التدريبية لاتخاذ قرار بشأن تشغيل التنس $ DTREE-> Add_Instance (سمات => {Outlook => "مشمس"، درجة الحرارة => 'Hot'، الرطوبة => "عالية"، والنتيجة => "لا" ) $ dtree-> add_instance (espibutes => {Outlook => 'revercast' ودرجة الحرارة => "Hot" والرطوبة => "عادي"}، النتيجة => "نعم")؛ ... كرر عدة حالات أخرى، ثم: DTREE-> القطار؛ # العثور على نتائج مثيلات غير مرئية بلدي النتيجة $ = $ dtree-> get_result (سمات => {Outlook => 'مشمس'، درجة الحرارة => 'HOT'، الرطوبة => "Normal"})؛ وحدة AI :: MODETREE تلقائيا يخلق ما يسمى "أشجار القرار" لشرح مجموعة من البيانات التدريبية. شجرة القرار هي نوع من الفئات التي تستخدم عملية تشبه المخططات الانسيابية لتصنيف مثيلات جديدة. على سبيل المثال، قد تبدو شجرة القرارات المستفادة وكأنها ما يلي، والتي تصنف للمفهوم "Play Tennis": Outlook / | / |. / |. مشمس / overcast الأمطار الممطرة / | الرطوبة |. الرياح / * لا * / / / عالي / عادي / / قوي / ضعيف * لا * * نعم * / * لا * * نعم * (هذا المثال، والإلهام الوحدة النمطية AI :: Tenttree، تعال مباشرة من Tom Mitchell الممتاز كتاب "تعلم الجهاز"، متاح من McGraw Hill). هو في بطريقة ما تغليف بيانات التدريب في أصغر شجرة ممكنة. هذا مدفوع من قبل فلسفة "حلاقة" Occam "، والتي ينبغي أن تفضل فيها أبسط تفسير ممكن لمجموعة من الظواهر على التفسيرات الأخرى. أيضا، ستقرر الأشجار الصغيرة قرارات أسرع من الأشجار الكبيرة، وأنها أسهل بكثير لإنسان أن ينظر إليه وفهمه. واحدة من أكبر أسباب استخدام شجرة القرار بدلا من العديد من تقنيات تعلم الآلات الأخرى هي أن شجرة القرار هي صانع قرار أكثر فاعليةا بكثير من ذلك، على سبيل المثال، شبكة عصبية. يستخدم التنفيذ الحالي لهذه الوحدة طريقة بسيطة للغاية لإنشاء شجرة القرار بناء على مثيلات التدريب. يستخدم برنامج كسب المعلومات (بناء على الانحراف المتوقع في الانتروبي) لتحديد السمة "الأكثر إعلانية" في كل عقدة في الشجرة. هذه هي في الأساس خوارزمية ID3، التي طورتها JR Quinlan في عام 1986. الفكرة هي أن السمة مع أعلى مكسبات المعلومات (ربما) ستكون أفضل سمة لتقسيم الشجرة في كل نقطة إذا كنا مهتمين بجعل الأشجار الصغيرة وبعد متطلبات: perl.


AI :: القرار برامج ذات صلة