إكس جي بوست

هذه المقالة يتيمة. ساعد بإضافة وصلة إليها في مقالة متعلقة بها
من ويكيبيديا، الموسوعة الحرة

اكس جي بوست[5] (باللغة الإنكليزية: XGBoost ; مختصر لـ eXtreme Gradient Boosting) هي مكتبة برمجيةمفتوحة المصدر، التي توفر اطار عمل لتقنيات تقنين التدرج المعزز في اللغات البرمجية سي++، جافا، بايثون، [6] ار، [7] جوليا، [8] بيرل، [9] و سكالا. تعمل المكتبة على انظمة تشغيل لينكس و مايكروسوفت ويندوز [10] و ماك او اس.[11] اعتمادا على وصف المشروع، فانه يهدف إلى توفير مكتبة تدعم «التدرج المعزز القابل للتطوير واعادة الاستعمال والتوزيع». يتم تشغيله على جهاز واحد، بالإضافة إلى أطر المعالجة الموزعة من اباتشي هدوب و اباتشي سبارك و اباتشي فلينك و داسك.[12] [13]

لقد اكتسبت المكتبة الكثير من الشعبية والاهتمام مؤخرًا باعتبارها الخوارزمية المفضلة للعديد من الفرق الفائزة في مسابقات التعلم الآلي.[14]

التاريخ[عدل]

بدأت اكس جي بوست في البداية كمشروع بحثي بواسطة تيانكي جين[15] كجزء من مجموعة مجتمع التعلم الآلي العميق. في البداية، بدأ كتطبيق طرفي يمكن تهيئته باستخدام ملف تكوين libsvm. أصبح معروفًا جيدًا في دوائر مسابقة تعلم الالة بعد استخدامه في الحل الفائز لتحدي هيكز لتعلم الالة. بعد فترة وجيزة، تم إنشاء حزم بايثون و ار، ولدى اكس جي بوست الآن تطبيقات لحزم جافا و سكالا و جوليا و ليرل ولغات أخرى. جلب هذا التحدي اهتمام المزيد من المطورين إلى المكتبة، وساهم في شعبيتها بين مجتمع كاغل، حيث تم استخدامها لعدد كبير من المسابقات. [16]

سرعان ما تم دمجها مع عدد من الحزم الأخرى مما يسهل استخدامها في مجتمعات البرمجة. تم دمجها الآن مع مكتبة ساي كيت ليرن لمستخدمي بايثون ومع حزمة الإقحام لمستخدمي ار. يمكن أيضًا دمجها في أطر عمل مسار البيانات مثل اباتشي سبارك و اباتشي هيدوب و اباتشي فلينك.[17][18] يتوفر اكس جي بوست أيضًا على اوبن سي ال لمصفوفة البوابات المنطقية القابلة للبرمجة.[19] تم نشر تنفيذ فعال وقابل للتطوير لاكس جي بوست بواسطة تيانكي جين و كالوس جوسترين.[20]

السمات[عدل]

تشمل الميزات البارزة لاكس جي بوست والتي تجعله مختلفًا عن خوارزميات تعزيز التدرج الأخرى: [21] [22] [23]

الخوارزمية[عدل]

يعمل اكس جي بوست بالاعتماد على طريقة نيوتن في مساحة الوظيفة على عكس تعزيز التدرج الذي يعمل كنزول متدرج في مساحة الوظيفة، يتم استخدام تقريب تايلور من الدرجة الثانية في وظيفة الخسارة لإجراء الاتصال بطريقة نيوتن رافسون.

الجوائز[عدل]

  • جائزة جون تشامبرز (2016) [24]
  • جائزة فيزياء الطاقة العالية تلتقي بالتعلم الآلي (2016) [25]

مراجع[عدل]

  1. ^ "Release 2.0.3". 19 ديسمبر 2023. اطلع عليه بتاريخ 2023-12-19.
  2. ^ الوصول: 5 أكتوبر 2016.
  3. ^ "Release 2.0.3". 19 ديسمبر 2023. اطلع عليه بتاريخ 2023-12-19.
  4. ^ الوصول: 6 أكتوبر 2016.
  5. ^ "GitHub project webpage". مؤرشف من الأصل في 2022-09-01.
  6. ^ "Python Package Index PYPI: xgboost". مؤرشف من الأصل في 2021-10-07. اطلع عليه بتاريخ 2016-08-01.
  7. ^ "CRAN package xgboost". مؤرشف من الأصل في 2022-09-01. اطلع عليه بتاريخ 2016-08-01.
  8. ^ "Julia package listing xgboost". مؤرشف من الأصل في 2021-10-06. اطلع عليه بتاريخ 2016-08-01.
  9. ^ "CPAN module AI::XGBoost". مؤرشف من الأصل في 2021-10-06. اطلع عليه بتاريخ 2020-02-09.
  10. ^ "Installing XGBoost for Anaconda in Windows". مؤرشف من الأصل في 2021-10-06. اطلع عليه بتاريخ 2016-08-01.
  11. ^ "Installing XGBoost on Mac OSX". مؤرشف من الأصل في 2021-10-06. اطلع عليه بتاريخ 2016-08-01.
  12. ^ "Dask Homepage". مؤرشف من الأصل في 2022-09-14.
  13. ^ "Distributed XGBoost with Dask — xgboost 1.5.0-dev documentation". xgboost.readthedocs.io. مؤرشف من الأصل في 2022-06-04. اطلع عليه بتاريخ 2021-07-15.
  14. ^ "XGBoost - ML winning solutions (incomplete list)". غيت هاب. مؤرشف من الأصل في 2022-08-08. اطلع عليه بتاريخ 2016-08-01.
  15. ^ "Story and Lessons behind the evolution of XGBoost". مؤرشف من الأصل في 2022-03-07. اطلع عليه بتاريخ 2016-08-01.
  16. ^ "XGBoost - ML winning solutions (incomplete list)". غيت هاب. اطلع عليه بتاريخ 2016-08-01."XGBoost - ML winning solutions (incomplete list)".
  17. ^ "Rabit - Reliable Allreduce and Broadcast Interface". غيت هاب. مؤرشف من الأصل في 2022-09-01. اطلع عليه بتاريخ 2016-08-01.
  18. ^ "XGBoost4J". مؤرشف من الأصل في 2022-06-16. اطلع عليه بتاريخ 2016-08-01.
  19. ^ "XGBoost on FPGAs". غيت هاب. مؤرشف من الأصل في 2021-10-06. اطلع عليه بتاريخ 2019-08-01.
  20. ^ . ص. 785–794. {{استشهاد بمنشورات مؤتمر}}: الوسيط |title= غير موجود أو فارغ (مساعدة)
  21. ^ Gandhi, Rohith (24 May 2019). "Gradient Boosting and XGBoost". Medium (بالإنجليزية). Archived from the original on 2022-07-31. Retrieved 2020-01-04.
  22. ^ "Boosting algorithm: XGBoost". Towards Data Science (بالإنجليزية). 14 May 2017. Archived from the original on 2022-04-06. Retrieved 2020-01-04.
  23. ^ "Tree Boosting With XGBoost – Why Does XGBoost Win "Every" Machine Learning Competition?". Synced (بالإنجليزية الأمريكية). 22 Oct 2017. Archived from the original on 2022-08-23. Retrieved 2020-01-04.
  24. ^ "John Chambers Award Previous Winners". مؤرشف من الأصل في 2022-08-02. اطلع عليه بتاريخ 2016-08-01.
  25. ^ "HEP meets ML Award". مؤرشف من الأصل في 2021-10-06. اطلع عليه بتاريخ 2016-08-01.