
Turkish: 
Selam herkese
Tirendaz Akademi Hoşgeldiniz
Bu derste
ensemble konusunu anlatacağım.
Derse geçmeden önce kanalımıza yeniyseniz
en güncel derslerden haberdar olmak için abone olmayı
ve düşüncelerinizi yorumlar kısmına paylaşım unutmayın.
Karar ağaçları tekniğinin
overfitting yani modelin aşırı uydurmaya meyilli olduğunu
geçen derste söylemiştik.
Bu aşırı uydurmanın etkisini azaltmak için
çoklu overfitting
tamircilerini kombine edebiliriz.
Özetle bu derste
Ensemble nedir?
Voting yani oynama ile sınıflandırma nasıl yapılır?
Bagging ve pasting kavramları nedir?
Random Forest nedir
nasıl kullanılır?
ve Gradient Boosting nedir
nasıl kullanılır gibi konulardan bahsedeceğim.

French: 
Salut à tous
Bienvenue à Tirendaz Academy
Dans cette leçon
J'expliquerai le sujet de l'ensemble.
Si vous êtes nouveau sur notre chaîne avant de commencer le cours
s'inscrire pour être informé des derniers cours
Et n'oubliez pas de partager vos réflexions dans la section commentaires.
Technique des arbres de décision
surajustement de sorte que le modèle est sujet au surajustement
nous avons dit dans la dernière leçon.
Pour réduire l'effet de ce surajustement
surajustement multiple
Nous pouvons combiner des réparateurs.
En résumé dans cette leçon
Qu'est-ce que l'ensemble?
Comment classer avec le vote?
Quels sont les concepts d'ensachage et de collage?
Qu'est-ce que Random Forest
Comment utiliser?
et qu'est-ce que le Gradient Boosting
Je parlerai de sujets tels que comment l'utiliser.

English: 
Hi everyone
welcome to Tirendaz Academy
In this lesson, i will
talk about ensemble and random forest.
If you are new to our channel before starting the lesson,
do not forget to subscribe and share your thoughts in the comments section 
to be informed about the latest stories. Let's get started.
We told the last lesson that
the decision trees technique is prone to overfitting,
the model being over-fitting.
We can combine multiple overfitting estimators
to reduce the effect
of this overfitting.
In summary, in this lesson,
What is the Ensemble?
Voting, how to classify by voting?
What are the concepts of Bagging and Pasting?
What is random forests and 
how to use it?
What is the gradient boosted method
and how to use it?

Arabic: 
السلام للجميع
مرحبًا بكم في أكاديمية تيرينداز
في هذا الدرس
سأشرح موضوع الفرقة.
إذا كنت جديدًا على قناتنا قبل بدء الدرس
للاشتراك لتكون على علم بآخر الدورات
ولا تنسى مشاركة أفكارك في قسم التعليقات.
تقنية أشجار القرار
overfitting لذلك النموذج عرضة للتركيب الزائد
قلنا في الدرس الأخير.
لتقليل تأثير هذا التجاوز
متعددة overfitting
يمكننا الجمع بين المصلحين.
باختصار في هذا الدرس
ما هي الفرقة؟
كيف تصنف مع التصويت؟
ما هي مفاهيم التعبئة واللصق؟
ما هي Random Forest
كيف تستعمل؟
وما هو التدرج اللوني
سأتحدث عن مواضيع مثل كيفية استخدامه.

German: 
Hallo allerseits
Willkommen in der Tirendaz Academy
In dieser Lektion
Ich werde das Thema Ensemble erklären.
Wenn Sie vor Beginn der Lektion neu in unserem Kanal sind
abonnieren, um über die neuesten Kurse informiert zu werden
Und vergessen Sie nicht, Ihre Gedanken im Kommentarbereich mitzuteilen.
Entscheidungsbaumtechnik
Überanpassung, sodass das Modell zu Überanpassung neigt
sagten wir in der letzten Lektion.
Um den Effekt dieser Überanpassung zu reduzieren
mehrfache Überanpassung
Wir können Handwerker kombinieren.
Zusammenfassend in dieser Lektion
Was ist das Ensemble?
Wie klassifiziere ich mit Voting?
Was sind die Konzepte des Absackens und Einfügens?
Was ist Random Forest?
Wie benutzt man?
und was ist Gradient Boosting
Ich werde über Themen wie die Verwendung sprechen.

Hindi: 
हेलो सब लोग
आपका स्वागत है तिरेंदाज़ अकादमी में
इस पाठ में
मैं कलाकारों की टुकड़ी के विषय की व्याख्या करूंगा।
यदि आप पाठ शुरू करने से पहले हमारे चैनल पर नए हैं
नवीनतम पाठ्यक्रमों के बारे में सूचित करने के लिए सदस्यता लें
और टिप्पणी अनुभाग में अपने विचार साझा करना न भूलें।
निर्णय पेड़ों की तकनीक
ओवरफिटिंग होने पर मॉडल ओवरफिटिंग का शिकार हो जाता है
हमने आखिरी पाठ में कहा।
इस ओवरफिटिंग के प्रभाव को कम करने के लिए
कई ओवरफिटिंग
हम मरम्मत करने वालों को जोड़ सकते हैं।
इस पाठ में संक्षेप में
पहनावा क्या है?
वोटिंग के साथ वर्गीकृत कैसे करें?
बैगिंग और पेस्टिंग की अवधारणाएं क्या हैं?
क्या है रैंडम फॉरेस्ट
कैसे इस्तेमाल करे?
और ग्रैडिएंट बूस्टिंग क्या है
मैं इस विषय पर बात करूंगा कि इसका उपयोग कैसे किया जाए।

Dutch: 
Hallo iedereen
Welkom bij Tirendaz Academy
In deze les
Ik zal het onderwerp ensemble uitleggen.
Als je nieuw bent op ons kanaal voordat je met de les begint
zich in te schrijven om op de hoogte te blijven van de laatste cursussen
En vergeet niet om uw mening te delen in het opmerkingengedeelte.
Beslissingsbomen techniek
overfitting, zodat het model vatbaar is voor overfitting
zeiden we in de laatste les.
Om het effect van deze overfitting te verminderen
meerdere overfitting
We kunnen reparateurs combineren.
Samengevat in deze les
Wat is het ensemble?
Hoe classificeren met stemmen?
Wat zijn de concepten van inpakken en plakken?
Wat is Random Forest
Hoe te gebruiken?
en wat is Gradient Boosting
Ik zal het hebben over onderwerpen zoals het gebruik ervan.

Spanish: 
Hola a todos
Bienvenido a Tirendaz Academy
En esta lección
Explicaré el tema del conjunto.
Si es nuevo en nuestro canal antes de comenzar la lección
suscribirse para estar informado sobre los últimos cursos
Y no olvides compartir tus pensamientos en la sección de comentarios.
Técnica de árboles de decisión
sobreajuste para que el modelo sea propenso a sobreajuste
dijimos en la última lección.
Para reducir el efecto de este sobreajuste
sobreajuste múltiple
Podemos combinar reparadores.
En resumen en esta lección
¿Qué es el conjunto?
¿Cómo clasificar con votación?
¿Cuáles son los conceptos de ensacado y pegado?
¿Qué es Random Forest?
¿Cómo utilizar?
y que es Gradient Boosting
Hablaré sobre temas como cómo usarlo.

Arabic: 
ماذا إذا
لآلاف الأشخاص
سألت سؤالا معقدا و
قمت بجمع هذه الإجابات.
في كثير من الحالات ، جمعت هذه الإجابات
قد يكون أفضل من رأي الخبير.
وهذا ما يسمى بذكاء الحشد.
أفضل من أفضل مقدر إذا جمعت التنبؤات من مجموعة من المقدرين مثل هذا تمامًا.
تستطيع ان تخمن
لمجموعة المقدرين
يطلق عليه اسم المجموعة.
على سبيل المثال ، لنأخذ مجموعة من مصنّفات أشجار القرار.
كل مصنف
دعنا ندرب بيانات التدريب في مجموعة فرعية عشوائية. لذلك نجد توقعات كل شجرة من هذه التوقعات
أعلى تصنيف
تؤخذ كتقدير.
مثل هذه الأشجار القرار للمجموعة
يطلق عليه Random Forest.
هذه التقنية
على الرغم من بساطتها ، فهي واحدة من أقوى خوارزميات التعلم الآلي اليوم.
على سبيل المثال الانحدار اللوجستي
دعم آلات المتجهات ومصنف الغابات العشوائية ومصنف k الأقرب

Hindi: 
क्या हो अगर
हजारों लोगों के लिए
आपने एक जटिल प्रश्न पूछा और
आपने इन उत्तरों को एकत्र किया।
कई मामलों में इन जवाबों को एकत्र किया
विशेषज्ञ की राय से बेहतर हो सकता है।
इसे क्राउड इंटेलिजेंस कहा जाता है।
सबसे अच्छा अनुमानक से बेहतर अगर आप अनुमान लगाने वालों के झुंड से भविष्यवाणियों को इस तरह जोड़ते हैं।
आप अनुमान लगा सकते है
आकलनकर्ताओं के समूह के लिए
इसे पहनावा कहा जाता है।
उदाहरण के लिए, चलो निर्णय पेड़ों के वर्गीकरण का एक समूह लेते हैं।
प्रत्येक वर्ग
चलो एक यादृच्छिक सबसेट में प्रशिक्षण डेटा को प्रशिक्षित करते हैं। इसलिए हम इन पूर्वानुमानों से प्रत्येक पेड़ का पूर्वानुमान पाते हैं
उच्चतम श्रेणी
एक अनुमान के रूप में लिया गया।
इस तरह के निर्णय पेड़ की टुकड़ी के लिए
इसे रैंडम फॉरेस्ट कहा जाता है।
यह तकनीक
अपनी सादगी के बावजूद, यह आज सबसे शक्तिशाली मशीन लर्निंग एल्गोरिदम में से एक है।
उदाहरण के लिए लॉजिस्टिक रिग्रेशन
वेक्टर मशीनों, रैंडम फॉरेस्ट क्लासिफायर और k निकटतम पड़ोस क्लासिफायर का समर्थन करते हैं

Spanish: 
Y si
a miles de personas
hiciste una pregunta compleja y
recopiló estas respuestas.
En muchos casos, estas respuestas recopiladas
puede ser mejor que la opinión de un experto.
Esto se llama inteligencia de masas.
Mejor que el mejor estimador si suma las predicciones de un grupo de estimadores como este.
Puedes adivinar
Al grupo de estimadores
Se llama conjunto.
Por ejemplo, tomemos un grupo de clasificadores de árboles de decisión.
Cada clasificador
Entrenemos los datos de entrenamiento en un subconjunto aleatorio. Entonces encontramos el pronóstico de cada árbol a partir de estas predicciones.
clase mejor calificada
tomado como una estimación.
Tales árboles de decisión para el conjunto
Se llama Random Forest.
Esta tecnica
A pesar de su simplicidad, es uno de los algoritmos de aprendizaje automático más potentes de la actualidad.
Por ejemplo regresión logística
Soporta máquinas vectoriales, clasificador de bosque aleatorio y clasificador de vecindario más cercano k

Dutch: 
Wat nou als
aan duizenden mensen
je stelde een complexe vraag en
je hebt deze antwoorden verzameld.
In veel gevallen zijn deze verzamelde antwoorden
kan beter zijn dan de mening van een expert.
Dit wordt crowd intelligence genoemd.
Beter dan de beste schatter als je de voorspellingen van een aantal schatters zomaar optelt
je kan het wel raden
Aan een groep schatters
Het heet ensemble.
Laten we bijvoorbeeld een groep classificatoren voor beslissingsbomen nemen.
Elke classificator
Laten we de trainingsgegevens trainen in een willekeurige subset. Dus we vinden de voorspelling van elke boom uit deze voorspellingen
hoogst gewaardeerde klasse
genomen als een schatting.
Dergelijke beslissingsbomen voor het ensemble
Het heet Random Forest.
Deze techniek
Ondanks zijn eenvoud is het tegenwoordig een van de krachtigste algoritmen voor machine learning.
Bijvoorbeeld logistieke regressie
ondersteuning van vectormachines, willekeurige bosclassificatie en k dichtstbijzijnde buurtclassificatie

French: 
Et qu'est-ce qui se passerait si
à des milliers de personnes
vous avez posé une question complexe et
vous avez recueilli ces réponses.
Dans de nombreux cas, ces réponses collectées
peut être mieux que l'opinion d'un expert.
C'est ce qu'on appelle l'intelligence des foules.
Mieux que le meilleur estimateur si vous additionnez les prédictions d'un groupe d'estimateurs comme celui-ci.
Vous pouvez deviner
Vers un groupe d'estimateurs
Cela s'appelle ensemble.
Par exemple, prenons un groupe de classificateurs d'arbres de décision.
Chaque classificateur
Entraînons les données d'entraînement dans un sous-ensemble aléatoire. On retrouve donc la prévision de chaque arbre à partir de ces prédictions
classe la mieux notée
pris comme une estimation.
De tels arbres de décision à l'ensemble
Cela s'appelle Random Forest.
Cette technique
Malgré sa simplicité, c'est l'un des algorithmes d'apprentissage automatique les plus puissants à l'heure actuelle.
Par exemple, régression logistique
prend en charge les machines vectorielles, le classificateur de forêt aléatoire et le classificateur de voisinage le plus proche k

English: 
Suppose you asked 
thousands of people 
a complex question
and collected those answers.
In many cases these pooled answers
may be better than an expert's opinion.
This is called crowd intelligence.
If you add up the predictions from a bunch of estimators just like this one, you can make a better prediction than
the best estimator.
The group of predictors
is called an ensemble.
For example, let's take a group of decision trees classifiers and train each classifier in a random subset of training data.
So we find the estimate of each tree.
The class with the highest number of votes from these predictions 
is taken as an estimate.
The ensemble
of such decision trees is called 
the random forest.
Despite its technical simplicity,
it is one of the most powerful machine learning algorithms today.
For example, you trained 
with estimators such as logistic regression, support vector machines, random forest classifier,

German: 
Was wäre wenn
zu Tausenden von Menschen
Sie haben eine komplexe Frage gestellt und
Sie haben diese Antworten gesammelt.
In vielen Fällen sammelten diese Antworten
kann besser sein als die Meinung eines Experten.
Dies nennt man Crowd Intelligence.
Besser als der beste Schätzer, wenn Sie die Vorhersagen einer Reihe von Schätzern wie diesem addieren.
Das kannst du dir denken
Zur Gruppe von Schätzern
Es heißt Ensemble.
Nehmen wir zum Beispiel eine Gruppe von Klassifizierern für Entscheidungsbäume.
Jeder Klassifikator
Lassen Sie uns die Trainingsdaten in einer zufälligen Teilmenge trainieren. Wir finden also die Vorhersage jedes Baums aus diesen Vorhersagen
Klasse mit der höchsten Bewertung
als Schätzung genommen.
Solche Entscheidungsbäume an das Ensemble
Es heißt Random Forest.
Diese Technik
Trotz seiner Einfachheit ist es heute einer der leistungsstärksten Algorithmen für maschinelles Lernen.
Zum Beispiel logistische Regression
Support Vector Machines, Random Forest Classifier und k Nearest Neighborhood Classifier

Turkish: 
Farz edelim ki
binlerce insana
kompleks bir soru sordunuz ve
bu cevapları topladınız.
Birçok durumda bu toplanmış cevaplar
bir uzmanın görüşünden daha iyi olabilir.
Buna kalabalığın zekası denir.
Aynen bunun gibi bir grup kestiricinin tahminlerini toplarsanız en iyi kestiriciden daha iyi
tahmin yapabilirsiniz
Kestiricilerin grubuna
Ensemble denir.
Örneğin bir karar ağaçları sınıflandırıcıları grubu alalım.
Herbir sınıflandırıcıyı
eğitim verisini rastgele alt kümesinde eğitelim. Böylece her bir ağacın tahmini buluruz bu tahminlerden
en fazla oy alan sınıf
tahmin olarak alınır.
Böyle karar ağaçlarının ensemble'na
Random Forest denir.
Bu teknik
basitliğine rağmen bugün en güçlü makine öğrenmesi algoritmalarından biridir.
Örneğin lojistik regresyon
destek vektör makineleri, random forest sınıflandırıcısı ve k en yakın komşuluğu sınıflandırıcısını

Spanish: 
reuniendo
Consideremos adivinar.
Como puedes ver en la pantalla
cada pronosticador
está haciendo predicciones para nuevos datos.
Estos estimadores se juntan y se vota.
no más de 1
mecánico de conjunto para adivinar
Hace una suposición.
Cuando el estimador funciona de forma independiente entre sí
métodos de conjunto
funciona mejor.
Para esto
Se recomienda utilizar diferentes algoritmos.
Lunas ahora
Vamos a mostrar lo que hemos explicado utilizando el conjunto de datos.
Nuestro canal tiene más de 400 videos educativos especialmente python
lecciones de entrenamiento y
Recomiendo encarecidamente su biblioteca.
Puede ver las explicaciones debajo del video para acceder a los enlaces de estas lecciones. Empecemos.
en primer lugar
conjunto de datos
Importo desde el módulo.
Luego
conjunto de datos
entrada y salida
variables
Vamos a crear.
Para triturar el conjunto de datos
función train_test_split

Hindi: 
करीब लाना
आइए अनुमान लगाने पर विचार करें।
जैसा कि आप स्क्रीन पर देख सकते हैं
प्रत्येक भविष्यवक्ता
नए डेटा के लिए भविष्यवाणियां कर रहा है।
इन अनुमानकों को एक साथ लाया जाता है और मतदान किया जाता है।
1 से अधिक नहीं
अनुमान लगाने के लिए कलाकारों की टुकड़ी
वह 1 अनुमान लगाता है।
जब अनुमानक एक दूसरे से स्वतंत्र रूप से काम करता है
पहनावा तरीके
बेहतर काम करता है।
इसके लिए
विभिन्न एल्गोरिदम का उपयोग करने की सिफारिश की जाती है।
अब मून्स
आइए दिखाते हैं कि हमने डेटा सेट का उपयोग करके क्या समझाया है।
हमारे चैनल में 400 से अधिक शैक्षिक वीडियो हैं विशेष रूप से अजगर
प्रशिक्षण सबक और
मैं उनके पुस्तकालय की अत्यधिक अनुशंसा करता हूं।
आप इन पाठों के लिंक तक पहुँचने के लिए वीडियो के नीचे स्पष्टीकरण देख सकते हैं। चलो शुरू करते हैं।
पहले तो
डेटा सेट
मैं मॉड्यूल से आयात करता हूं।
बाद में
डेटा सेट
इनपुट और आउटपुट
चर
चलो बनाते हैं।
डेटा सेट श्रेड करने के लिए
train_test_split फ़ंक्शन

German: 
zusammenbringen
Lassen Sie uns überlegen, zu raten.
Wie Sie auf dem Bildschirm sehen können
jeder Prognostiker
macht Vorhersagen für neue Daten.
Diese Schätzer werden zusammengeführt und abgestimmt.
nicht mehr als 1
Ensemble Mechaniker zum Erraten
Er macht eine Vermutung.
Wenn der Schätzer unabhängig voneinander arbeitet
Ensemble-Methoden
funktioniert besser.
Dafür
Es wird empfohlen, verschiedene Algorithmen zu verwenden.
Monde jetzt
Lassen Sie uns zeigen, was wir anhand des Datensatzes erklärt haben.
Unser Kanal hat mehr als 400 Lehrvideos, insbesondere Python
Schulungen und
Ich kann ihre Bibliothek nur empfehlen.
Sie können die Erklärungen unter dem Video sehen, um auf die Links dieser Lektionen zuzugreifen. Lasst uns beginnen.
zuerst
Datensatz
Ich importiere aus dem Modul.
Später
Datensatz
Eingabe und Ausgabe
Variablen
Lassen Sie uns erstellen.
Den Datensatz vernichten
train_test_split Funktion

French: 
réunissant
Pensons à deviner.
Comme vous pouvez le voir sur l'écran
chaque prévisionniste
fait des prédictions pour de nouvelles données.
Ces estimateurs sont rassemblés et le vote est effectué.
pas plus de 1
mécanicien d'ensemble pour deviner
Il fait une supposition.
Lorsque l'estimateur fonctionne indépendamment les uns des autres
méthodes d'ensemble
fonctionne mieux.
Pour ça
Il est recommandé d'utiliser différents algorithmes.
Lunes maintenant
Montrons ce que nous avons expliqué en utilisant l'ensemble de données.
Notre chaîne a plus de 400 vidéos éducatives en particulier python
cours de formation et
Je recommande vivement leur bibliothèque.
Vous pouvez voir les explications ci-dessous la vidéo pour accéder aux liens de ces leçons. Commençons.
d'abord
base de données
J'importe depuis le module.
Plus tard
base de données
entrée et sortie
variables
Créons.
Pour déchiqueter l'ensemble de données
fonction train_test_split

Turkish: 
bir araya getirerek
tahmin yapmayı düşünelim.
Ekranda gördüğünüz gibi
herbir tahminci
yeni veri için tahminde bulunuyor.
Bu tahminciler bir araya getirilerek oylama yapılıyor
en fazla 1
tahmin edildiği için ensemble tamircisi
1 tahmininde bulunuyor.
Tahmincinin her biri diğerinden bağımsız olarak çalıştığı zaman
ensemble metotları
daha iyi çalışır.
Bunun için
birbirinden farklı algoritmaların kullanılması tavsiye edilir.
Şimdi moons
veri setini kullanarak bu anlattıklarımızı gösterelim.
Kanalımızda 400'den fazla eğitim videosu var özellikle python
eğitim derslerini ve
kütüphanelerini şiddetle tavsiye ederim.
Bu derslerin linklerine ulaşmak için videonun altındaki açıklamalara bakabilirsiniz. Hadi başlayalım.
Öncelikle
veri setini data set
modülünden import ederim.
Daha sonra
veri setinin
girdi ve çıktı
değişkenlerini
oluşturalım.
Veri setini parçalamak için
train_test_split foksiyonunu

Arabic: 
الجمع
دعونا نفكر في التخمين.
كما ترى على الشاشة
كل متنبئ
يقوم بعمل تنبؤات لبيانات جديدة.
يتم جمع هؤلاء المقدرين معًا ويتم التصويت.
لا يزيد عن 1
ميكانيكي المجموعة للتخمين
يقوم بتخمين واحد.
عندما يعمل المقدّر بشكل مستقل عن الآخر
طرق المجموعة
يعمل بشكل أفضل.
لهذا
يوصى باستخدام خوارزميات مختلفة.
الأقمار الآن
دعنا نظهر ما شرحناه باستخدام مجموعة البيانات.
تحتوي قناتنا على أكثر من 400 مقطع فيديو تعليمي خاصة بيثون
دروس تدريبية و
أنا أوصي مكتبتهم بشدة.
يمكنك مشاهدة التفسيرات أسفل الفيديو للوصول إلى روابط هذه الدروس. هيا لنبدأ.
أولا
مجموعة البيانات
أنا أستورد من الوحدة.
في وقت لاحق
مجموعة البيانات
المدخلات والمخرجات
المتغيرات
لنقم بإنشاء.
لتمزيق مجموعة البيانات
دالة train_test_split

English: 
and k nearest neighborhood classifier
think about it.
As you can see on the screen,
each estimator
makes predictions for the new data.
These estimators are brought together to vote  
and the ensemble estimator,
makes an estimate since 
the maximum one is guessed.
Ensemble methods work better when the estimators
work independently 
of each other.
For this
it is recommended to use different algorithms
Now let's demonstrate
this using the moons data set.
We have more than 400 videos on our channel.
highly recommend
the python and its libraries lessons in particular.
You can access the links in description below
First of all,
let's import
this data set from datasets.
After that
let's create
the input and output
variables
of the data set.
To split dataset
let's import  

Dutch: 
samenbrengen
Laten we overwegen om te raden.
Zoals je op het scherm kunt zien
elke voorspeller
maakt voorspellingen voor nieuwe gegevens.
Deze schatters worden bij elkaar gebracht en er wordt gestemd.
niet meer dan 1
ensemble-monteur om te raden
Hij doet 1 gok.
Als de schatter onafhankelijk van elkaar werkt
ensemble-methoden
werkt beter.
Voor deze
Het wordt aanbevolen om verschillende algoritmen te gebruiken.
Manen nu
Laten we laten zien wat we hebben uitgelegd met behulp van de dataset.
Ons kanaal heeft meer dan 400 educatieve video's, vooral python
trainingslessen en
Ik raad hun bibliotheek ten zeerste aan.
U kunt de uitleg onder de video bekijken om toegang te krijgen tot de links van deze lessen. Laten we beginnen.
Ten eerste
gegevensset
Ik importeer vanuit de module.
Later
gegevensset
input en output
variabelen
Laten we creëren.
Om de dataset te versnipperen
train_test_split functie

Spanish: 
de la selección del modelo
Vamos a importar.
Usando esta función
Separemos los datos en entrenamiento y prueba.
Los estimadores que usaremos ahora
Importémoslo.
Desde el módulo Ensemble
bosque aleatorio
clasificador
e importemos el clasificador de votaciones.
Del modelo lineal
Regresión logística
y
máquinas de vectores de apoyo
Vamos a importar.
De estas clases
Tomando una muestra de cada uno y llamando al método de ajuste
Configuremos los modelos.
en primer lugar
ejemplo de regresión logística
vamos a llegar
Llamando al método de ajuste
Configuremos el modelo.
próximo
bosque aleatorio
tomar una muestra en su clasificador y
Llamando al método de ajuste
Configuremos el modelo.
Luego
máquinas de vectores de apoyo

Hindi: 
मॉडल चयन से
आयात करते हैं।
इस फ़ंक्शन का उपयोग करना
आइए डेटा को प्रशिक्षण और परीक्षण में अलग करें।
अब हम जिन अनुमानकों का उपयोग करेंगे
इसका आयात करते हैं।
एन्सेम्बल मॉड्यूल से
बेतरतीब जंगल
वर्गीकारक
और वोटिंग क्लासिफायरिफायर आयात करते हैं।
रैखिक मॉडल से
रसद प्रतिगमन
तथा
समर्थन वेक्टर मशीन
आयात करते हैं।
इन वर्गों का
प्रत्येक नमूना लेने और फिट विधि को कॉल करके
आइए हम मॉडल सेट करें।
पहले तो
लॉजिस्टिक रिग्रेशन के लिए उदाहरण
चलो लाते हैं
फिट विधि कहकर
चलो मॉडल सेट करें।
आगे
बेतरतीब जंगल
इसके क्लासिफ़ायर में एक नमूना लें और
फिट विधि कहकर
चलो मॉडल सेट करें।
बाद में
समर्थन वेक्टर मशीन

German: 
aus der Modellauswahl
Lassen Sie uns importieren.
Mit dieser Funktion
Lassen Sie uns die Daten in Training und Test unterteilen.
Die Schätzer werden wir jetzt verwenden
Lass es uns importieren.
Aus dem Ensemble-Modul
zufälliger Wald
Klassifikator
und importieren wir den Abstimmungsklassifikator.
Aus dem linearen Modell
logistische Regression
und
Support-Vektor-Maschinen
Lassen Sie uns importieren.
Von diesen Klassen
Indem Sie jeweils eine Probe nehmen und die Fit-Methode aufrufen
Lassen Sie uns die Modelle einrichten.
zuerst
Beispiel für logistische Regression
Lass uns ... Holen
Durch Aufrufen der Fit-Methode
Lassen Sie uns das Modell einrichten.
Nächster
zufälliger Wald
Nehmen Sie eine Probe in seinem Klassifikator und
Durch Aufrufen der Fit-Methode
Lassen Sie uns das Modell einrichten.
Später
Support-Vektor-Maschinen

Turkish: 
model selection'dan
import edelim.
Bu fonksiyonu kullanarak
verileri eğitim ve test şeklinde ayıralım.
Şimdi kullanacağımız tahmincileri
içe aktaralım.
Ensemble modülünden
random forest
classifier
ve voting classifier import edelim.
Lineer modelden
lojistik regresyonu
ve
destek vektör makinelerini
import edelim.
Bu sınıflardan
birer örnek alıp fit metodunun çağırarak
modelleri kuralım.
Öncelikle
lojistik regresyon için örneği
alalım.
fit metodunu çağırarak
modeli kuralım.
Ardından
random forest
sınıflandırıcısında bir örnek alıp
fit metodunu çağırarak
modeli kuralım.
Daha sonra
destek vektör makineleri

Arabic: 
من اختيار النموذج
دعنا نستورد.
باستخدام هذه الوظيفة
دعنا نفصل البيانات إلى تدريب واختبار.
المقدرات التي سوف نستخدمها الآن
دعنا نستوردها.
من وحدة الفرقة
غابة عشوائية
مصنف
ودعنا نستورد مصنف التصويت.
من النموذج الخطي
الانحدار اللوجستي
و
دعم آلات ناقلات
دعنا نستورد.
من هذه الفئات
عن طريق أخذ عينة من كل عينة واستدعاء الطريقة الملائمة
لنقم بإعداد النماذج.
أولا
مثال على الانحدار اللوجستي
دعنا نحصل
عن طريق استدعاء الطريقة المناسبة
لنقم بإعداد النموذج.
التالى
غابة عشوائية
أخذ عينة في مصنفه و
عن طريق استدعاء الطريقة المناسبة
لنقم بإعداد النموذج.
في وقت لاحق
دعم آلات ناقلات

English: 
train_test_split function
from model selection
Using this function
let's split the data into training and testing.
Let's import the estimators
we will use now.
From ensemble module
RandomForests
Classifier
and VotingClassifier
From linear module
logistic regression
and 
support vector machines
let me import
Let's take an instance
from each of these classes
fit models
First
for logistic regression
take an instance
We are going to call fit methods
and fit model.
After that
we are going to take an instance 
RandomForestsClassifier
and using fit method
fit model
After that
take an instance

French: 
à partir de la sélection de modèle
Importons.
Utiliser cette fonction
Séparons les données entre la formation et les tests.
Les estimateurs que nous allons utiliser maintenant
Importons-le.
Depuis le module Ensemble
forêt aléatoire
classificateur
et importons le classificateur de vote.
À partir du modèle linéaire
régression logistique
et
soutenir les machines vectorielles
Importons.
De ces classes
En prenant un échantillon chacun et en appelant la méthode fit
Configurons les modèles.
d'abord
exemple de régression logistique
obtenons
En appelant la méthode fit
Configurons le modèle.
Prochain
forêt aléatoire
prélever un échantillon dans son classificateur et
En appelant la méthode fit
Configurons le modèle.
Plus tard
soutenir les machines vectorielles

Dutch: 
uit modelselectie
Laten we importeren.
Met deze functie
Laten we de gegevens scheiden in training en testen.
De schatters die we nu gaan gebruiken
Laten we het importeren.
Van de Ensemble-module
willekeurig bos
classificator
en laten we de stemclassificatie importeren.
Van het lineaire model
logistieke regressie
en
ondersteuning van vectormachines
Laten we importeren.
Van deze klassen
Door elk een monster te nemen en de fit-methode aan te roepen
Laten we de modellen opzetten.
Ten eerste
voorbeeld voor logistische regressie
laten we halen
Door de fit-methode aan te roepen
Laten we het model opzetten.
De volgende
willekeurig bos
neem een ​​monster in zijn classificator en
Door de fit-methode aan te roepen
Laten we het model opzetten.
Later
ondersteuning van vectormachines

English: 
from support vector machines
again
using fit method
fit model
Last
for voting
create model
here
write these 
3 model
for voting argument
write hard 
After that
using fit method
fit model.
in support vector machines
set quates
for auto
we are going to run
and
models were fitted 
Now let's see 
the performance of the models.
We use the scoring method for this.
set print and 
inside after 
writting log.score
we are gonna type
test sets
After that
We are gonna arrange
for fited 
each one model
When we are gonna run
the accuracy values ​​were written on the screen.
If you pay attention, 

French: 
prenons un exemple pour
encore
En appelant la méthode fit
nous avons mis en place le modèle.
Dernier
pour voter
nous créons le modèle.
Ici
c'est le 3 modèle que nous avons reçu
nous écrivons.
à l'argument de vote
taper dur
suivant
En appelant la méthode fit
nous avons mis en place le modèle.
Soutenir les machines vectorielles
valeur automatique
entre guillemets
J'exécute ces commandes.
Et
nous avons établi les modèles.
Maintenant vos modèles
Voyons les performances pour cela
Nous utilisons la méthode du score.
Tapez imprimer dans
Journal.
après avoir écrit la partition
données de test
Je suis en train d'écrire.
Prochain
ces codes
Chacun que j'ai construit
J'édite pour le modèle
Quand nous exécutons cette cellule
les valeurs de précision sont écrites sur l'écran.
Notez que la valeur de précision du modèle créé par vote

Spanish: 
toma un ejemplo para
de nuevo
Llamando al método de ajuste
configuramos el modelo.
Último
para votar
creamos el modelo.
aquí
este es el modelo 3 que recibimos
Estamos escribiendo.
al argumento de la votación
escribiendo duro
siguiente
Llamando al método de ajuste
configuramos el modelo.
Máquinas de vectores de soporte
valor automático
entre comillas
Estoy ejecutando estos comandos.
Y
hemos establecido los modelos.
Ahora tus modelos
Veamos el rendimiento para ello.
Usamos el método de puntuación.
Escriba imprimir en
Iniciar sesión.
después de escribir la partitura
datos de prueba
Estoy escribiendo.
próximo
estos códigos
Cada uno que construí
Estoy editando para el modelo
Cuando ejecutamos esta celda
los valores de precisión se escriben en la pantalla.
Tenga en cuenta que el valor de precisión del modelo creado al votar

German: 
Nehmen Sie ein Beispiel für
nochmal
Durch Aufrufen der Fit-Methode
Wir haben das Modell eingerichtet.
Zuletzt
zur Abstimmung
Wir erstellen das Modell.
Hier
Dies ist das 3 Modell, das wir erhalten haben
wir schreiben.
zum Abstimmungsargument
hart tippen
Nächster
Durch Aufrufen der Fit-Methode
Wir haben das Modell eingerichtet.
Support-Vektor-Maschinen
Auto-Wert
in Anführungszeichen
Ich führe diese Befehle aus.
Und
Wir haben die Modelle etabliert.
Nun deine Modelle
Mal sehen, die Leistung dafür
Wir verwenden die Methode der Punktzahl.
Geben Sie print in ein
Log.
nach dem Schreiben der Partitur
Testdaten
Ich schreibe gerade.
Nächster
diese Codes
Jeder einzelne, den ich gebaut habe
Ich bearbeite für das Modell
Wenn wir diese Zelle betreiben
Genauigkeitswerte werden auf den Bildschirm geschrieben.
Beachten Sie, dass der Genauigkeitswert des Modells durch Abstimmung erstellt wurde

Hindi: 
के लिए एक उदाहरण लें
फिर
फिट विधि कहकर
हमने मॉडल स्थापित किया।
अंतिम
मतदान के लिए
हम मॉडल बनाते हैं।
यहाँ
यह हमें प्राप्त हुआ 3 मॉडल है
हम लिख रहे हैं।
मतदान के तर्क के लिए
कठिन टाइपिंग
आगे
फिट विधि कहकर
हमने मॉडल स्थापित किया।
समर्थन वेक्टर मशीन
ऑटो मूल्य
उद्धरण चिह्नों में
मैं ये कमांड चला रहा हूं।
तथा
हमने मॉडल स्थापित किए हैं।
अब आपके मॉडल
आइए देखते हैं इसके लिए प्रदर्शन
हम स्कोर की विधि का उपयोग करते हैं।
प्रिंट टाइप करें
लॉग इन करें।
स्कोर लिखने के बाद
परीक्षण डेटा
मैं लिख रहा हूँ।
आगे
ये कोड
हर एक मैंने बनाया
मैं मॉडल के लिए संपादन कर रहा हूं
जब हम इस सेल को चलाते हैं
सटीकता मान स्क्रीन पर लिखे गए हैं।
ध्यान दें कि मतदान द्वारा बनाए गए मॉडल का सटीकता मूल्य

Turkish: 
için bir örnek alıp
yine
fit metodunu çağırarak
modeli kuruyoruz.
En son
voting için
modeli oluşturuyoruz.
Buraya
bu aldığımız 3 modeli
yazıyoruz.
voting argümanına
hard yazıp
ardından
fit metodunu çağırarak
modeli kuruyoruz.
Destek vektör makinelerine
auto değerini
tırnak içine alıp
bu komutları çalıştırıyorum.
Ve
modelleri kurmuş olduk.
Şimdi modellerin
performansını görelim bunun için
skor metodunu kullanıyoruz.
print yazıp içerisine
log.
score yazdıktan sonra
test verilerini
yazıyorum.
Ardından
bu kodları
kurduğum her bir
model için düzenliyorum
Bu hücreyi çalıştırdığımız zaman
doğruluk değerleri ekrana yazıldı.
Dikkat ederseniz oylama ile oluşturulan modelin doğruluk değeri

Dutch: 
neem een ​​voorbeeld voor
opnieuw
Door de fit-methode aan te roepen
we hebben het model opgezet.
Laatste
om te stemmen
we maken het model.
Hier
dit is het 3 model dat we hebben ontvangen
Wij schrijven.
op het stemargument
hard typen
De volgende
Door de fit-methode aan te roepen
we hebben het model opgezet.
Ondersteuning van vectormachines
auto waarde
tussen aanhalingstekens
Ik voer deze opdrachten uit.
En
we hebben de modellen opgesteld.
Nu uw modellen
Laten we de uitvoering ervoor bekijken
We gebruiken de methode van scoren.
Typ print in
logboek.
na het schrijven van de score
testgegevens
Ik ben aan het schrijven.
De volgende
deze codes
Elk exemplaar dat ik heb gebouwd
Ik ben aan het bewerken voor het model
Als we deze cel runnen
nauwkeurigheidswaarden worden op het scherm geschreven.
Merk op dat de nauwkeurigheidswaarde van het model gecreëerd door te stemmen

Arabic: 
خذ مثالا ل
مرة أخرى
عن طريق استدعاء الطريقة المناسبة
قمنا بإعداد النموذج.
آخر
للتصويت
نقوم بإنشاء النموذج.
هنا
هذا هو النموذج الثالث الذي تلقيناه
نحن نكتب.
حجة التصويت
الكتابة الصعبة
التالى
عن طريق استدعاء الطريقة المناسبة
قمنا بإعداد النموذج.
دعم آلات ناقلات
قيمة السيارات
بين علامات الاقتباس
أنا أقوم بتشغيل هذه الأوامر.
و
لقد أنشأنا النماذج.
الآن النماذج الخاصة بك
دعونا نرى الأداء لذلك
نحن نستخدم طريقة النتيجة.
اكتب print in
سجل.
بعد كتابة النتيجة
بيانات الاختبار
وأنا أكتب.
التالى
هذه الرموز
كل واحد بنيته
أنا أحرر للنموذج
عندما نقوم بتشغيل هذه الخلية
يتم كتابة قيم الدقة على الشاشة.
لاحظ أن دقة قيمة النموذج تم إنشاؤها عن طريق التصويت

English: 
the accuracy values ​​of the model created by voting,
are equal or higher than other models.
Here, the estimation was made by taking the average of the class estimates of the classifiers.
If the class probabilities of
each classifier are calculated,
a higher estimate is made.
This is called
soft voting.
If we want to use this option, 
it will be sufficient to calculate the classification estimates of
each estimator and write soft
to the voting
argument.
We have just
shown a method of making estimates by grouping
different classifiers.
Another method is to use
the same training algorithm for each estimator,
but to use different subsets of training data when training these estimators.
If substitution is chosen, this method
is called bagging.
This name is short for bootstrap aggregating.

Dutch: 
gelijk aan de nauwkeurigheidswaarde van het andere model
of hoger.
Hier werd de schatting gemaakt door het gemiddelde te nemen van de klassevoorspellingen van de classificatoren.
Als elke classifier
als klassenkansen worden berekend
er wordt een hogere schatting gemaakt.
Dit
Het heet zacht stemmen.
Als we deze optie willen gebruiken
bereken de classificatieschattingen van elke schatter en
op het stemargument
zacht
het zou genoeg zijn om te schrijven.
Een tijdje geleden
We hebben een techniek gedemonstreerd voor het schatten door verschillende classificaties te groeperen.
Op een andere manier
met hetzelfde trainingsalgoritme voor elke schatter, maar
het gebruik van verschillende subsets van trainingsgegevens bij het trainen van deze schatters.
Als in plaats daarvan het monster wordt gekozen, deze methode
genaamd bagging.
Deze naam staat voor bootstrap-aggregatie.

Turkish: 
diğer modelin doğruluk değerine eşit
veya daha yüksek.
Burada sınıflandırıcıların sınıf tahminlerinin ortalaması alınarak tahmin yapıldı.
Eğer her her bir sınıflayıcının
sınıf olasılıkları hesaplanırsa
daha yüksek tahmin yapılır.
Buna
soft voting denir.
Bu opsiyonu kullanmak istersek
herbir tahmincinin sınıflama tahminlerini hesaplayıp
voting argümanına
soft
yazmak yeterli olur.
Biraz önce
birbirinden farklı sınıflandırıcıları gruplayarak bir tahmin yapma tekniği gösterdik.
Diğer bir yöntemde
her tahminci için aynı eğitim algoritmasını kullanmak ama
bu tahmincileri eğitirken eğitim verilerinin farklı alt kümelerini kullanmaktır.
Örneklem yerine koymalı seçiliyorsa bu metoda
bagging denir.
Bu isim bootstrap aggregating kısaltılmasıdır.

Arabic: 
يساوي قيمة دقة النموذج الآخر
أو أعلى.
هنا ، تم التقدير بأخذ متوسط ​​تنبؤات فئة المصنفات.
إذا كان كل مصنف
إذا تم حساب احتمالات الفئة
يتم إجراء تقدير أعلى.
هذه
إنه يسمى التصويت الناعم.
إذا أردنا استخدام هذا الخيار
حساب تقديرات التصنيف لكل مقدر و
حجة التصويت
ناعم
سيكون كافيا للكتابة.
قبل قليل
أظهرنا تقنية للتقدير من خلال تجميع المصنفات المختلفة.
بطريقة أخرى
باستخدام نفس خوارزمية التدريب لكل مقدر ولكن
باستخدام مجموعات فرعية مختلفة من بيانات التدريب عند تدريب هؤلاء المقدرين.
إذا تم اختيار العينة بدلاً من ذلك ، فهذه الطريقة
يسمى التعبئة.
هذا الاسم يعني تجميع bootstrap.

Spanish: 
igual al valor de precisión del otro modelo
o mas alto.
Aquí, la estimación se realizó tomando el promedio de las predicciones de clase de los clasificadores.
Si cada clasificador
si se calculan las probabilidades de clase
se hace una estimación más alta.
Esta
Se llama votación suave.
Si queremos usar esta opción
calcular las estimaciones de clasificación de cada estimador y
al argumento de la votación
suave
bastaría con escribir.
Hace poco tiempo
Demostramos una técnica para estimar agrupando diferentes clasificadores.
En otro método
usando el mismo algoritmo de entrenamiento para cada estimador pero
utilizando diferentes subconjuntos de datos de entrenamiento al entrenar estos estimadores.
Si se elige la muestra en su lugar, este método
llamado ensacado.
Este nombre significa agregación bootstrap.

French: 
égale à la valeur de précision de l'autre modèle
ou plus.
Ici, l'estimation a été faite en prenant la moyenne des prédictions de classe des classificateurs.
Si chaque classificateur
si les probabilités de classe sont calculées
une estimation plus élevée est faite.
Ce
C'est ce qu'on appelle le vote doux.
Si nous voulons utiliser cette option
calculer les estimations de classification de chaque estimateur et
à l'argument de vote
doux
il suffirait d'écrire.
Il y a un instant
Nous avons démontré une technique d'estimation en regroupant différents classificateurs.
Dans une autre méthode
en utilisant le même algorithme d'apprentissage pour chaque estimateur mais
en utilisant différents sous-ensembles de données d'apprentissage lors de l'entraînement de ces estimateurs.
Si l'échantillon est choisi à la place, cette méthode
appelé ensachage.
Ce nom signifie l'agrégation bootstrap.

German: 
gleich dem Genauigkeitswert des anderen Modells
oder höher.
Hier wurde die Schätzung vorgenommen, indem der Durchschnitt der Klassenvorhersagen der Klassifizierer genommen wurde.
Wenn jeder Klassifikator
wenn Klassenwahrscheinlichkeiten berechnet werden
eine höhere Schätzung wird vorgenommen.
Dies
Es heißt Soft Voting.
Wenn wir diese Option verwenden möchten
Berechnen Sie die Klassifizierungsschätzungen jedes Schätzers und
zum Abstimmungsargument
Sanft
es würde ausreichen zu schreiben.
Kuerzlich
Wir haben eine Technik zur Schätzung durch Gruppieren verschiedener Klassifikatoren demonstriert.
In einer anderen Methode
mit dem gleichen Trainingsalgorithmus für jeden Schätzer aber
Verwenden verschiedener Teilmengen von Trainingsdaten beim Trainieren dieser Schätzer.
Wenn stattdessen die Stichprobe ausgewählt wird, wird diese Methode angewendet
genannt Absacken.
Dieser Name steht für Bootstrap Aggregation.

Hindi: 
अन्य मॉडल के सटीकता मूल्य के बराबर
या ऊँचा।
यहाँ, अनुमान लगाया गया था कि कक्षा की कक्षा की भविष्यवाणियों का औसत क्या है।
यदि प्रत्येक वर्ग
यदि वर्ग संभावनाओं की गणना की जाती है
उच्च अनुमान लगाया जाता है।
यह
इसे नरम मतदान कहा जाता है।
अगर हम इस विकल्प का उपयोग करना चाहते हैं
प्रत्येक अनुमानक के वर्गीकरण अनुमानों की गणना करें और
मतदान के तर्क के लिए
मुलायम
यह लिखना पर्याप्त होगा।
थोड़ी देर पहले
हमने अलग-अलग क्लासिफायर का समूह बनाकर अनुमान लगाने के लिए एक तकनीक का प्रदर्शन किया।
दूसरी विधि में
हर अनुमानक के लिए एक ही प्रशिक्षण एल्गोरिथ्म का उपयोग लेकिन
इन अनुमानकों को प्रशिक्षित करते समय प्रशिक्षण डेटा के विभिन्न सबसेट का उपयोग करना।
यदि नमूना इसके बजाय चुना जाता है, तो यह विधि
कहा जाता है।
यह नाम बूटस्ट्रैप एग्रीगेटिंग के लिए है।

Arabic: 
إذا تم اختيار العينة بدون استبدال ،
لصق
بعد استخدام هذه التقنية
يتم تدريب المتنبئين و
يتم الجمع بين هذه التوقعات معًا.
ثم من أجل ملاحظة جديدة
يتم إجراء تقدير.
بهذه التقنية
حيث تم تدريب كل متنبئ في مجموعة البيانات الأصلية
لديها المزيد من التحيز.
لكن عندما يجتمعون
التباين والانحياز.
لدى Scikit Learn واجهات برمجة تطبيقات للتعبئة واللصق.
هذه من أجل التصنيف
تصنيف وتعبئة منظم الانحدار.
دعنا نعرض مثالا الآن.
أولا
من وحدة المجموعة
تكييس
مصنف
أنا أستورد.
التالى
مع أشجار القرار
لمقارنة هذه التقنية
فئة أشجار القرار
دعنا نستورد.
في وقت لاحق
النقط التي سنستخدمها
مجموعة البيانات
دعنا نستورد من مجموعات البيانات.

Dutch: 
Als de steekproef zonder vervanging wordt gekozen,
plakken
Nadat deze techniek is gebruikt
voorspellers zijn getraind en
deze voorspellingen worden gecombineerd.
Dan voor een nieuwe observatie
er wordt een schatting gemaakt.
Met deze techniek
aangezien elke voorspeller werd getraind in de originele dataset
het heeft meer vooringenomenheid.
Maar als ze samenkomen
variantie en bias nemen af.
Scikit Learn heeft API's voor zowel het inpakken als plakken.
Deze zijn voor classificatie
BaggingClassifier en BaggingRegressor voor regressie.
Laten we nu een voorbeeld geven.
Ten eerste
van ensemble module
Opzakken
Classificator
Ik importeer.
De volgende
Met beslissingsbomen
om deze techniek te vergelijken
klasse van beslissingsbomen
Laten we importeren.
Later
de blobs die we zullen gebruiken
gegevensset
Laten we importeren uit datasets.

French: 
Si l'échantillon est choisi sans substitution,
coller
Une fois cette technique utilisée
les prédicteurs sont formés et
ces prédictions sont combinées.
Puis pour une nouvelle observation
une estimation est faite.
Avec cette technique
puisque chaque prédicteur a été formé dans l'ensemble de données d'origine
il a plus de biais.
Mais quand ils se réunissent
la variance et le biais diminuent.
Scikit learn a des API pour la mise en sac et le collage.
Ce sont pour la classification
BaggingClassifier et BaggingRegressor pour la régression.
Montrons maintenant un exemple.
d'abord
du module d'ensemble
Ensachage
Classificateur
J'importe.
Prochain
Avec des arbres de décision
pour comparer cette technique
classe d'arbres de décision
Importons.
Plus tard
les blobs que nous utiliserons
base de données
Importons des ensembles de données.

Hindi: 
यदि नमूना प्रतिस्थापन के बिना चुना जाता है,
चिपकाने
इसके बाद तकनीक का उपयोग किया जाता है
भविष्यवक्ता प्रशिक्षित होते हैं और
इन भविष्यवाणियों को एक साथ जोड़ दिया जाता है।
फिर एक नए अवलोकन के लिए
एक अनुमान लगाया जाता है।
इस तकनीक के साथ
चूंकि प्रत्येक भविष्यवक्ता को मूल डेटा सेट में प्रशिक्षित किया गया था
इसके पक्षपात अधिक हैं।
लेकिन जब वे एक साथ हो जाते हैं
विचरण और पूर्वाग्रह घटते हैं।
स्किकिट सीख में बैगिंग और पेस्टिंग दोनों के लिए एपीआई हैं।
ये वर्गीकरण के लिए हैं
रैगिंग के लिए BaggingClassifier और BaggingRegressor।
अब एक उदाहरण दिखाते हैं।
पहले तो
पहनावा मॉड्यूल से
ऊलजलूल का कपड़ा
वर्गीकरणकर्ता
मैं आयात करता हूं।
आगे
निर्णय पेड़ों के साथ
इस तकनीक की तुलना करने के लिए
निर्णय पेड़ों की कक्षा
आयात करते हैं।
बाद में
बूँदें हम उपयोग करेंगे
डेटा सेट
चलो डेटासेट से आयात करते हैं।

English: 
If the sample is chosen without substitution,
it is called pasting.
After using this technique,
the predictors are trained
and their predictions are put together 
and then make a prediction 
for a new observation.
With this technique, 
each predictor has more bias than was trained 
in the original data set,
but when they come together,
the variance and bias are reduced.
Scikit-learn has APIs for both bagging and pasting.
These are BaggingRegressor for regression
BaggingClassifier for classification.
Let's show an example now.
First,
from ensemble module
we're gonna
import 
BaggingClassifier
After that
for comparing with 
decision trees
also we're gonna import 
decision trees class
Then
we are gonna 
import make_blobs
from datasets

German: 
Wenn die Probe ohne Substitution ausgewählt wird,
Einfügen
Nach dieser Technik wird verwendet
Prädiktoren werden geschult und
Diese Vorhersagen werden miteinander kombiniert.
Dann für eine neue Beobachtung
es wird eine Schätzung vorgenommen.
Mit dieser Technik
da jeder Prädiktor im Originaldatensatz trainiert wurde
es hat mehr Voreingenommenheit.
Aber wenn sie zusammenkommen
Varianz und Bias nehmen ab.
Scikit Learn verfügt über APIs zum Absacken und Einfügen.
Diese dienen zur Klassifizierung
BaggingClassifier und BaggingRegressor für die Regression.
Lassen Sie uns jetzt ein Beispiel zeigen.
zuerst
vom Ensemble-Modul
Absacken
Klassifikator
Ich importiere.
Nächster
Mit Entscheidungsbäumen
um diese Technik zu vergleichen
Klasse von Entscheidungsbäumen
Lassen Sie uns importieren.
Später
Die Blobs werden wir verwenden
Datensatz
Importieren wir aus Datensätzen.

Spanish: 
Si la muestra se elige sin sustitución,
pegado
Después de que se utiliza esta técnica
los predictores están entrenados y
estas predicciones se combinan juntas.
Entonces para una nueva observación
se hace una estimación.
Con esta técnica
ya que cada predictor fue entrenado en el conjunto de datos original
tiene más sesgo.
Pero cuando se juntan
la varianza y el sesgo disminuyen.
Scikit learn tiene API para empaquetar y pegar.
Estos son para clasificación
BaggingClassifier y BaggingRegressor para regresión.
Muestremos un ejemplo ahora.
en primer lugar
del módulo de conjunto
Harpillera
Clasificador
Yo importo.
próximo
Con árboles de decisión
para comparar esta técnica
clase de árboles de decisión
Vamos a importar.
Luego
las manchas que usaremos
conjunto de datos
Vamos a importar desde conjuntos de datos.

Turkish: 
Örneklem yerine koymasız seçilirse buna
pasting
Bu teknik kullanıldıktan sonra
kestiriciler eğitilir ve
bunları tahminleri bir araya getirilir.
Ardından yeni bir gözlem için
bir tahmin yapılır.
Bu teknik ile
her bir kestirici orijinal veri setinde eğitildiğinden
daha fazla bias yani yanlılığa sahiptir.
Ama bir araya geldiklerinde
varyans ve bias azalır.
Scikit learn'de hem bagging hem de pasting için API'ler vardır.
Bunlar sınıflandırma için
BaggingClassifier ve regresyon için BaggingRegressor'dur.
Şimdi bir örnek gösterelim.
Öncelikle
ensemble modülünden
Bagging
Classifier
import ederim.
Ardından
Karar ağaçları ile
bu tekniği karşılaştırmak için
karar ağaçları sınıfınıda
import edelim.
Daha sonra
kullanacağımız blobs
veri setini
datasets'den import edelim.

English: 
Let's assign
input and output data
to variables
X and y.
After writting
arguments
we are gonna split the data set
with the function
train_test_split
After creating sets
we are gonna take an instance
from decision trees
Then
using fit method
we are gonna fit model
from BaggingClassifier
again we are gonna take an instance
and then
here
we are gonna set arguments
for number of trees
we are gonna set 100
For max_sample 
we are gonna set 0.8
for using 
all cpu
n_jobs
we are gonna set -1
for random state 
we are gonna type 1
and then again
using fit method
we are gonna fit model.

Hindi: 
यह डेटा सेट
इनपुट और आउटपुट डेटा
X और Y चर तक
आइए असाइन करते हैं
डेटा सेट के लिए
तर्कों को लिखने के बाद
डेटा सेट
train_test_split फ़ंक्शन के साथ
चलो इसे तोड़ो।
डेटा सेट बनाने के बाद
निर्णय पेड़ों से
एक उदाहरण लेते हैं।
आगे
फिट विधि कहकर
चलो मॉडल सेट करें।
बैगिंग क्लासिफायरियर से
फिर से एक नमूना लें
आगे
में
हम तर्क लिखते हैं।
हम कितने पेड़ों का उपयोग करेंगे
100 लिख देते हैं।
नमूनों की अधिकतम संख्या
0.8 लिखते हैं।
सभी सीपीयू
उपयोग करने के लिए
n_jobs
तर्क में -1 लिखते हैं।
यादृच्छिक अवस्था के लिए
टाइप 1 और
तो फिर
फिट विधि को बुला रहा है
चलो मॉडल सेट करें।

German: 
Dieser Datensatz
Eingabe- und Ausgabedaten
Zu X- und Y-Variablen
lasst uns zuweisen
Für Datensatz
nach dem Schreiben der Argumente
Datensatz
mit der Funktion train_test_split
Lass es uns aufbrechen.
Nach dem Erstellen der Datensätze
Aus Entscheidungsbäumen
Nehmen wir ein Beispiel.
Nächster
Durch Aufrufen der Fit-Methode
Lassen Sie uns das Modell einrichten.
Aus dem Absackklassifikator
Nehmen Sie erneut eine Probe
Nächster
in
Wir schreiben die Argumente.
Wie viele Bäume werden wir verwenden
Schreiben wir 100.
Maximale Anzahl von Proben
Schreiben wir 0,8.
Alle CPUs
benutzen
n_jobs
Schreiben wir -1 in das Argument.
für zufälligen Zustand
Typ 1 und
dann wieder
Aufruf der Fit-Methode
Lassen Sie uns das Modell einrichten.

French: 
Cet ensemble de données
données d'entrée et de sortie
Vers les variables X et Y
assignons
Pour l'ensemble de données
après avoir écrit les arguments
base de données
avec la fonction train_test_split
Brisons-le.
Après avoir créé les ensembles de données
À partir des arbres de décision
Prenons un exemple.
Prochain
En appelant la méthode fit
Configurons le modèle.
Du classificateur d'ensachage
prélever à nouveau un échantillon
suivant
dans
nous écrivons les arguments.
Combien d'arbres nous utiliserons
Écrivons 100.
Nombre maximum d'échantillons
Écrivons 0.8.
Tous les processeurs
utiliser
n_emplois
Écrivons -1 dans l'argument.
pour un état aléatoire
Type 1 et
puis encore
Appel de la méthode fit
Configurons le modèle.

Dutch: 
Deze dataset
invoer- en uitvoergegevens
Naar X- en Y-variabelen
laten we toewijzen
Voor dataset
na het schrijven van de argumenten
gegevensset
met de train_test_split functie
Laten we het uit elkaar halen.
Na het aanmaken van de datasets
Van beslissingsbomen
Laten we een voorbeeld nemen.
De volgende
Door de fit-methode aan te roepen
Laten we het model opzetten.
Van de classificator voor zakken
neem opnieuw een monster
De volgende
in
we schrijven de argumenten.
Hoeveel bomen zullen we gebruiken
Laten we 100 schrijven.
Maximaal aantal samples
Laten we 0,8 schrijven.
Alle CPU's
gebruiken
n_jobs
Laten we -1 in het argument schrijven.
voor willekeurige staat
Type 1 en
nogmaals
De fit-methode noemen
Laten we het model opzetten.

Arabic: 
هذه مجموعة البيانات
بيانات الإدخال والإخراج
إلى المتغيرات X و Y.
دعنا نخصص
لمجموعة البيانات
بعد كتابة الحجج
مجموعة البيانات
مع وظيفة train_test_split
دعونا نكسرها.
بعد إنشاء مجموعات البيانات
من أشجار القرار
لنأخذ مثالا.
التالى
عن طريق استدعاء الطريقة المناسبة
لنقم بإعداد النموذج.
من مصنف التعبئة
خذ عينة مرة أخرى
التالى
إلى
نكتب الحجج.
كم عدد الأشجار التي سنستخدمها
لنكتب 100.
العدد الأقصى للعينات
لنكتب 0.8.
جميع وحدات المعالجة المركزية
ليستخدم
n_ الوظائف
لنكتب -1 في الحجة.
لحالة عشوائية
اكتب 1 و
ثم مرة أخرى
استدعاء الأسلوب المناسب
لنقم بإعداد النموذج.

Spanish: 
Este conjunto de datos
datos de entrada y salida
A las variables X e Y
asignemos
Para el conjunto de datos
después de escribir los argumentos
conjunto de datos
con la función train_test_split
Vamos a romperlo.
Después de crear los conjuntos de datos
De árboles de decisión
Pongamos un ejemplo.
próximo
Llamando al método de ajuste
Configuremos el modelo.
Del clasificador de ensacado
tomar una muestra de nuevo
siguiente
dentro
escribimos los argumentos.
Cuantos árboles usaremos
Escribamos 100.
Número máximo de muestras
Escribamos 0.8.
Todas las CPU
usar
n_jobs
Escribamos -1 en el argumento.
para estado aleatorio
Tipo 1 y
luego otra vez
Llamar al método de ajuste
Configuremos el modelo.

Turkish: 
Bu veri setinin
girdi ve çıktı verilerini
X ve Y değişkenlerine
atayalım
Veri seti için
argümanları yazdıktan sonra
veri setini
train_test_split fonksiyon ile
parçalayalım.
Veri setlerini oluşturduktan sonra
Karar ağaçlarından
bir örnek alalım.
Ardından
fit metodunu çağırarak
modeli kuralım.
bagging sınıflandırıcısından
yine bir örnek alıp
ardından
içerisine
argümanları yazıyoruz.
Kullanacağımız ağaç sayısına
100 yazalım.
Maksimum örneklem sayısına
0.8 yazalım.
Bütün CPU'ları
kullanması için
n_jobs
argümanına -1 yazalım.
random state için
1 yazıp
ardından yine
fit metodunu çağırıp
modeli kuralım.

Spanish: 
súper
configuramos el modelo.
Ahora
Al llamar al método de puntuación
en datos de prueba
de estos modelos
Veamos su desempeño.
Te darás cuenta
La tasa de precisión del modelo que construimos combinando 100 árboles
Salida superior a la precisión del modelo instalado en un solo árbol. Según pegar en lugar de embolsar
para construir el modelo
oreja
Se escribe un valor falso en el argumento.
Clase BaggingClassifier
también admite el muestreo de características.
Esta
característica máxima
y
bootstrap está controlado por hiperparámetros destacados. entonces
cada predictor se entrena en un subconjunto aleatorio de atributos de entrada.
Cuando se trata de datos de gran dimensión
Es útil utilizar estos hiperparámetros.

Dutch: 
Super
we hebben het model opgezet.
Nu
Door de scoremethode aan te roepen
op testgegevens
van deze modellen
Laten we de prestaties bekijken.
Je zal merken
De nauwkeurigheid van het model dat we hebben gebouwd door 100 bomen te combineren
output hoger dan de nauwkeurigheid van het model dat in een enkele boom is geïnstalleerd. Volgens plakken in plaats van in zakken doen
om het model te bouwen
bootstrap
false waarde wordt naar het argument geschreven.
BaggingClassifier-klasse
ondersteunt ook beide feature sampling.
Dit
max functie
en
bootstrap wordt bestuurd door aanbevolen hyperparameters. zo
elke voorspeller wordt getraind op een willekeurige subset van invoerattributen.
Bij het omgaan met hoog dimensionale gegevens
Het is handig om deze hyperparameters te gebruiken.

Arabic: 
ممتاز
قمنا بإعداد النموذج.
الآن
عن طريق استدعاء طريقة النتيجة
على بيانات الاختبار
من هذه النماذج
دعونا نرى أدائها.
ستلاحظ
معدل دقة النموذج الذي قمنا ببنائه من خلال الجمع بين 100 شجرة
خرج أعلى من دقة النموذج المثبت في شجرة واحدة. حسب اللصق بدلاً من التعبئة
لبناء النموذج
التمهيد
يتم كتابة قيمة خاطئة إلى الوسيطة.
فئة التصنيف
يدعم كلا من ميزة أخذ العينات كذلك.
هذه
ميزة ماكس
و
يتم التحكم في التمهيد بواسطة معلمات تشعبية مميزة. وبالتالي
يتم تدريب كل متنبئ على مجموعة فرعية عشوائية من سمات الإدخال.
عند التعامل مع البيانات عالية الأبعاد
من المفيد استخدام هذه المعلمات المفرطة.

German: 
Super
Wir haben das Modell eingerichtet.
Jetzt
Durch Aufrufen der Score-Methode
auf Testdaten
dieser Modelle
Mal sehen, seine Leistung.
Du wirst bemerken
Die Genauigkeitsrate des Modells, das wir durch Kombinieren von 100 Bäumen erstellt haben
Ausgabe höher als die Genauigkeit des in einem einzelnen Baum installierten Modells. Nach dem Einfügen statt Absacken
um das Modell zu bauen
Bootstrap
In das Argument wird ein falscher Wert geschrieben.
BaggingClassifier-Klasse
unterstützt auch beide Feature-Sampling.
Dies
max Funktion
und
Der Bootstrap wird durch vorgestellte Hyperparameter gesteuert. so
Jeder Prädiktor wird auf eine zufällige Teilmenge von Eingabeattributen trainiert.
Beim Umgang mit hochdimensionalen Daten
Es ist nützlich, diese Hyperparameter zu verwenden.

Turkish: 
Süper
modeli kurduk.
Şimdi
score metodunu çağırarak
test verisi üzerinde
bu modellerin
performansını görelim.
Dikkat edersiniz
100 ağacı bir araya getirerek kurduğumuz modelin doğruluk oranı
tek bir ağaçta kurulan modelin doğruluk oranından daha yüksek çıktı. Bagging yerine pasting' göre
modeli kurmak için
bootstrap
argümanına false değeri yazılır.
BaggingClassifier sınıfı
hem de öznitelik örneklemini de destekler.
Bu
max feature
ve
bootstrap featured hiperparametreleri ile kontrol edilir. Böylece
her bir kestirici girdi özniteliklerinin rastgele alt kümesi üzerinde eğitilir.
Yüksek boyutlu veriler ile uğraşılırken
bu hiper parametreleri kullanmak faydalıdır.

English: 
Super
we fitted model
Now
to use score method
on test set
we see performances
of these models
If you pay attention,
the accuracy rate of the model we established by combining 100 trees
using bagging turned out to be higher than the accuracy of the model established with a single tree.
The argument bootstrap = False
is used to set up
the model based on pasting instead of bagging.
The BaggingClassifier class
supports both attribute instantiation.
This
is controlled
by the max_features
and bootstrap_features hyperparameters.
Thus, each predictor is trained on a random subset of input attributes.
It is useful to use these hyper parameters 
when dealing with high size attributes.

Hindi: 
उत्तम
हमने मॉडल स्थापित किया।
अभी
स्कोर पद्धति को कॉल करके
परीक्षण डेटा पर
इन मॉडलों की
आइए देखते हैं इसका प्रदर्शन।
तुम्हें पता चल जाएगा
मॉडल की सटीकता दर हमने 100 पेड़ों को मिलाकर बनाई है
एकल पेड़ में स्थापित मॉडल की सटीकता से अधिक उत्पादन। बैगिंग के बजाय चिपकाने के अनुसार
मॉडल बनाने के लिए
बूटस्ट्रैप
गलत मान तर्क को लिखा जाता है।
BaggingClassifier वर्ग
दोनों के रूप में अच्छी तरह से नमूना लेने का समर्थन करता है।
यह
अधिकतम सुविधा
तथा
बूटस्ट्रैप को फ़ीचर्ड हाइपरपैरामीटर द्वारा नियंत्रित किया जाता है। इसलिए
प्रत्येक भविष्यवक्ता को इनपुट विशेषताओं के एक यादृच्छिक सबसेट पर प्रशिक्षित किया जाता है।
उच्च आयामी डेटा के साथ काम करते समय
इन हाइपर मापदंडों का उपयोग करना उपयोगी है।

French: 
Super
nous avons mis en place le modèle.
Maintenant
En appelant la méthode score
sur les données de test
de ces modèles
Voyons ses performances.
Tu remarqueras
Le taux de précision du modèle que nous avons construit en combinant 100 arbres
sortie supérieure à la précision du modèle installé dans un seul arbre. Selon coller au lieu de ensacher
pour construire le modèle
amorcer
une valeur fausse est écrite dans l'argument.
Classe BaggingClassifier
prend également en charge l'échantillonnage de fonctionnalités.
Ce
fonctionnalité max
et
bootstrap est contrôlé par des hyperparamètres en vedette. alors
chaque prédicteur est entraîné sur un sous-ensemble aléatoire d'attributs d'entrée.
Lorsque vous traitez des données de grande dimension
Il est utile d'utiliser ces hyper paramètres.

French: 
Forêt aléatoire
est un ensemble d'arbres de décision. Forêt aléatoire
C'est l'un des algorithmes d'apprentissage automatique les plus utilisés récemment.
Pour la forêt aléatoire
La classe de classificateur Random Forest est utilisée.
Pour montrer ça
Utilisons à nouveau l'ensemble de données des lunes.
Ensemble de données Moons
Au dessus
nous avons importé
Encore
données d'entrée et de sortie
Je colle.
Formation et tests
séparer les données
train_test_split
J'utilise la fonction.
Lorsque nous exécutons ces commandes
nos ensembles de données sont prêts. Forêt aléatoire
classificateur
nous l'avons importé avant.
Maintenant
Prenons une variable nommée forêt et cette variable
Classificateur de forêt aléatoire
Attribuons la classe.
Combien d'arbres nous utiliserons
Écrivons 5.
Prochain
Appel de la méthode fit
Configurons le modèle.
Voyons les limites de décision pour chacun des arbres utilisés pour la forêt aléatoire.

Spanish: 
Bosque aleatorio
es un conjunto de árboles de decisión. Bosque aleatorio
Es uno de los algoritmos de aprendizaje automático más utilizados recientemente.
Para bosque aleatorio
Se utiliza la clase de clasificador Random Forest.
Para mostrar esto
Usemos de nuevo el conjunto de datos de las lunas.
Conjunto de datos de lunas
Encima
nosotros importamos
De nuevo
datos de entrada y salida
Estoy pegando.
Entrenamiento y pruebas
para separar datos
train_test_split
Estoy usando la función.
Cuando ejecutamos estos comandos
nuestros conjuntos de datos están listos. Bosque aleatorio
clasificador
lo importamos antes.
Ahora
Tomemos una variable llamada bosque y esta variable
Clasificador de bosque aleatorio
Asignemos una clase.
Cuantos árboles usaremos
Escribamos 5.
próximo
Llamar al método de ajuste
Configuremos el modelo.
Veamos los límites de decisión para cada uno de los árboles usados ​​para el Bosque aleatorio.

Dutch: 
Willekeurig bos
is een Esemble van beslissingsbomen. Willekeurig bos
Het is onlangs een van de meest gebruikte algoritmen voor machine learning.
Voor willekeurig bos
De classificatieklasse Random Forest wordt gebruikt.
Om dit te laten zien
Laten we de gegevensset van de manen opnieuw gebruiken.
Moons-gegevensset
Bovenstaande
we hebben geïmporteerd
Opnieuw
invoer- en uitvoergegevens
Ik plak.
Trainen en testen
om gegevens te scheiden
train_test_split
Ik gebruik de functie.
Wanneer we deze opdrachten uitvoeren
onze datasets zijn klaar. Willekeurig bos
classificator
we hebben het eerder geïmporteerd.
Nu
Laten we een variabele nemen met de naam forest en deze variabele
Willekeurige Forest-classificatie
Laten we de klas toewijzen.
Hoeveel bomen zullen we gebruiken
Laten we schrijven 5.
De volgende
De fit-methode noemen
Laten we het model opzetten.
Laten we eens kijken naar de beslissingslimieten voor elk van de bomen die voor het willekeurige bos worden gebruikt.

Turkish: 
Random Forest
karar ağaçlarının bir Esemble'dır. Random forest
son zamanlarda en yaygın kullanılan makine öğrenmesi algoritmalarından biridir.
Random forest için
Random Forest classifier sınıfı kullanılır.
Bunu göstermek için
yine moons veri setini kullanalım.
Moons veri setini
Yukarıda
import etmiştik.
Tekrardan
girdi ve çıktı verilerini
yapıştırıyorum.
Eğitim ve test
verilerini ayırmak için
train_test_split
fonksiyonunu kullanıyorum.
Bu komutları çalıştırdığımız zaman
veri setlerimiz hazır. Random forest
sınıflandırıcısını
daha önce import etmiştik.
Şimdi
forest isminde bir değişken alalım ve bu değişkene
Random Forest classifier
sınıfını atayalım.
Kullanacağımız ağaç sayısına
5 yazalım.
Ardından
fit metodunu çağırıp
modeli kuralım.
Şimdi Random Forest için kullanılan ağaçların her birini karar sınırlarını görelim.

English: 
Random Forest
is an ensemble of decision trees.
Random Forests is one of the most widely used machine learning methods recently.
For Random Forests, 
the RandomForestClassifier class is used.
Let's use the moons dataset
again to demonstrate this.
we imported 
above
moons data set
again
we are gonna paste
input and output sets
to split train set 
and test set
we are gonna use
train_test_split functionç
When we are gonna run this codes
our data sets
are ready
we imported RandomForestClassifierandom
Now
we are gonna get a forest variable.
and assign 
Random Forest classifier
for number of trees 
we are gonna
set 5
and then using fit method
we are gonna fit model.
Now let's see the decision limits of each of the trees used for random forest.

Hindi: 
बेतरतीब जंगल
निर्णय पेड़ों का एक संयोजन है। बेतरतीब जंगल
यह हाल ही में सबसे अधिक उपयोग की जाने वाली मशीन लर्निंग एल्गोरिदम में से एक है।
यादृच्छिक वन के लिए
रैंडम फॉरेस्ट क्लासिफायर क्लास का उपयोग किया जाता है।
यह दिखाने के लिए
चलो फिर से सेट किए गए चन्द्रमा डेटा का उपयोग करें।
मून्स डेटासेट
ऊपर
हमने आयात किया
फिर
इनपुट और आउटपुट डेटा
मैं चिपका रहा हूँ।
प्रशिक्षण और परीक्षण
डेटा को अलग करने के लिए
train_test_split
मैं फंक्शन का इस्तेमाल कर रहा हूं।
जब हम ये कमांड चलाते हैं
हमारे डेटासेट तैयार हैं। बेतरतीब जंगल
वर्गीकारक
हमने इसे पहले आयात किया था।
अभी
चलो वन नाम का एक चर लेते हैं और यह चर
यादृच्छिक वन वर्गीकरण
चलो क्लास सौंपते हैं।
हम कितने पेड़ों का उपयोग करेंगे
5 लिखते हैं।
आगे
फिट विधि को बुला रहा है
चलो मॉडल सेट करें।
आइए रैंडम फ़ॉरेस्ट के लिए उपयोग किए जाने वाले प्रत्येक पेड़ की निर्णय सीमा देखें।

Arabic: 
غابة عشوائية
عبارة عن مجموعة من أشجار القرار. غابة عشوائية
إنها واحدة من أكثر خوارزميات التعلم الآلي استخدامًا مؤخرًا.
للغابات العشوائية
تم استخدام فئة مصنف Random Forest.
لاظهار هذا
دعنا نستخدم مجموعة بيانات الأقمار مرة أخرى.
مجموعة بيانات الأقمار
في الاعلى
استوردنا
مرة أخرى
بيانات الإدخال والإخراج
أنا ألصق.
التدريب والاختبار
لفصل البيانات
train_test_split
أنا أستخدم الوظيفة.
عندما نقوم بتشغيل هذه الأوامر
مجموعات البيانات لدينا جاهزة. غابة عشوائية
مصنف
قمنا باستيراده من قبل.
الآن
لنأخذ متغير اسمه forest وهذا المتغير
مصنف الغابة العشوائية
دعونا نخصص فئة.
كم عدد الأشجار التي سنستخدمها
لنكتب 5.
التالى
استدعاء الأسلوب المناسب
لنقم بإعداد النموذج.
دعونا نرى حدود القرار لكل شجرة من الأشجار المستخدمة في الغابة العشوائية.

German: 
Zufälliger Wald
ist ein Esemble von Entscheidungsbäumen. Zufälliger Wald
Es ist einer der in letzter Zeit am häufigsten verwendeten Algorithmen für maschinelles Lernen.
Für zufälligen Wald
Die Random Forest-Klassifikatorklasse wird verwendet.
Um dies zu zeigen
Verwenden wir den Monddatensatz erneut.
Monddatensatz
Über
wir haben importiert
Nochmal
Eingabe- und Ausgabedaten
Ich füge ein.
Schulung und Prüfung
Daten zu trennen
train_test_split
Ich benutze die Funktion.
Wenn wir diese Befehle ausführen
Unsere Datensätze sind fertig. Zufälliger Wald
Klassifikator
Wir haben es schon einmal importiert.
Jetzt
Nehmen wir eine Variable namens Gesamtstruktur und diese Variable
Zufälliger Waldklassifikator
Lassen Sie uns Klasse zuweisen.
Wie viele Bäume werden wir verwenden
Schreiben wir 5.
Nächster
Aufruf der Fit-Methode
Lassen Sie uns das Modell einrichten.
Sehen wir uns die Entscheidungsgrenzen für jeden der Bäume an, die für den Zufallswald verwendet werden.

French: 
L'apprentissage de 5 arbres est affiché à l'écran.
Dans le dernier graphique
en rassemblant des prédictions sur ces arbres
La prévision de la forêt aléatoire est affichée.
Nous avons utilisé 5 arbres ici
mais dans les applications du monde réel, plus de 100 ou 1000 arbres peuvent être utilisés.
Si vous le souhaitez, utilisez les données sur le cancer du sein de 100 arbres
Faisons une application Random Forest. Pour ça
d'abord
ensemble de données sur le cancer du sein
base de données
du module
Importons. Cet ensemble de données
cancer
Affectons-le à la variable.
Pour déchiqueter l'ensemble de données
à nouveau train_test_split
Utilisons la fonction.
Lorsque nous exécutons ces commandes
Analyse des ensembles de données
C'est prêt.
Composé de 100 arbres
Prenons un exemple de la classe Random Forest.
Pour ça
au dessus
J'utilise la commande
seulement
n_esitmators
à l'argument
J'écris 100.
Après avoir configuré le modèle de cette façon
du modèle
En appelant la méthode score

Arabic: 
يظهر تعلم 5 أشجار على الشاشة.
في الرسم البياني الأخير
من خلال الجمع بين التنبؤات لهذه الأشجار
يتم عرض توقعات الغابة العشوائية.
استخدمنا هنا 5 أشجار
ولكن في تطبيقات العالم الحقيقي ، يمكن استخدام أكثر من 100 أو 1000 شجرة.
إذا أردت ، استخدم بيانات سرطان الثدي من 100 شجرة
دعونا نجعل تطبيق Random Forest. لهذا
أولا
مجموعة بيانات سرطان الثدي
مجموعة البيانات
من الوحدة
دعنا نستورد. هذه مجموعة البيانات
سرطان
دعنا نسندها إلى المتغير.
لتمزيق مجموعة البيانات
مرة أخرى train_test_split
دعنا نستخدم الوظيفة.
عندما نقوم بتشغيل هذه الأوامر
تحليل مجموعة البيانات
إنه جاهز.
تتكون من 100 شجرة
لنأخذ مثالاً من فئة Random Forest.
لهذا
في الاعلى
أنا أستخدم الأمر
فقط
n_esitmators
للحجة
أنا أكتب 100.
بعد إعداد النموذج بهذه الطريقة
من النموذج
عن طريق استدعاء طريقة النتيجة

German: 
Das Lernen von 5 Bäumen wird auf dem Bildschirm angezeigt.
In der letzten Grafik
indem wir Vorhersagen für diese Bäume zusammenbringen
Die Random Forest-Vorhersage wird angezeigt.
Wir haben hier 5 Bäume benutzt
In realen Anwendungen können jedoch mehr als 100 oder 1000 Bäume verwendet werden.
Wenn Sie möchten, verwenden Sie Brustkrebsdaten von 100 Bäumen
Lassen Sie uns eine Random Forest-Anwendung erstellen. Dafür
zuerst
Brustkrebs-Datensatz
Datensatz
vom Modul
Lassen Sie uns importieren. Dieser Datensatz
Krebs
Weisen wir es der Variablen zu.
Den Datensatz vernichten
wieder train_test_split
Verwenden wir die Funktion.
Wenn wir diese Befehle ausführen
Datensatzanalyse
Es ist bereit.
Bestehend aus 100 Bäumen
Nehmen wir ein Beispiel aus der Random Forest-Klasse.
Dafür
über
Ich benutze den Befehl
nur
n_esitmators
zum Argument
Ich schreibe 100.
Nachdem Sie das Modell auf diese Weise eingerichtet haben
des Modells
Durch Aufrufen der Score-Methode

English: 
Learning of 5 trees is shown on the screen.
In the last graphic,
the estimates of these trees are brought together
and the random forest estimation is shown.
We used 5 trees here,
but in real world applications, a hundred or more like a thousand trees can be used.
If you want, let's make a random forest application using the breast cancer
data set consisting of 100 trees.
First
we are gonna import 
breast cancer 
data set from
datasets
Let's assign this data set
to the cancer variable.
Let's split to
the data sets with the 
train_test_split function.
When we are going to run this cell
data sets
are ready.
Let's take an example from the random 
forest class consisting of 100 trees.
For this
we are going to use
codes above
Let's 
write 
for n_estimators
100.
After fitting model
Let's use
score method

Spanish: 
El aprendizaje de 5 árboles se muestra en la pantalla.
En el último gráfico
reuniendo predicciones para estos árboles
Se muestra el pronóstico de Random Forest.
Usamos 5 árboles aquí
pero en aplicaciones del mundo real, se pueden utilizar más de 100 o 1000 árboles.
Si lo desea, utilice datos de cáncer de mama de 100 árboles
Hagamos una aplicación de Random Forest. Para esto
en primer lugar
conjunto de datos de cáncer de mama
conjunto de datos
del módulo
Vamos a importar. Este conjunto de datos
cáncer
Asignémoslo a la variable.
Para triturar el conjunto de datos
de nuevo train_test_split
Usemos la función.
Cuando ejecutamos estos comandos
Análisis de conjuntos de datos
Esta listo.
Consta de 100 árboles
Tomemos un ejemplo de la clase Random Forest.
Para esto
encima
Estoy usando el comando
solamente
n_esitmadores
al argumento
Estoy escribiendo 100.
Después de configurar el modelo de esta manera
de modelo
Al llamar al método de puntuación

Hindi: 
5 पेड़ों की सीख को स्क्रीन पर दिखाया गया है।
आखिरी ग्राफ में
इन पेड़ों की भविष्यवाणियों को एक साथ लाकर
यादृच्छिक वन पूर्वानुमान दिखाया गया है।
हमने यहां 5 पेड़ लगाए
लेकिन वास्तविक दुनिया के अनुप्रयोगों में, 100 या 1000 से अधिक पेड़ों का उपयोग किया जा सकता है।
आप चाहें तो 100 पेड़ों से स्तन कैंसर के आंकड़ों का उपयोग कर सकते हैं
चलो एक रैंडम फ़ॉरेस्ट एप्लिकेशन बनाते हैं। इसके लिए
पहले तो
स्तन कैंसर का खतरा
डाटासेट
मॉड्यूल से
आयात करते हैं। यह डेटा सेट
कैंसर
इसे वेरिएबल में असाइन करते हैं।
डेटा सेट श्रेड करने के लिए
फिर से train_test_split
आइए फ़ंक्शन का उपयोग करें।
जब हम ये कमांड चलाते हैं
डेटा सेट विश्लेषण
यह तैयार है।
100 पेड़ों से मिलकर
चलो रैंडम फ़ॉरेस्ट क्लास से एक उदाहरण लेते हैं।
इसके लिए
ऊपर
मैं कमांड का उपयोग कर रहा हूं
केवल
n_esitmators
तर्क के लिए
मैं 100 लिख रहा हूं।
मॉडल को इस तरह स्थापित करने के बाद
मॉडल का
स्कोर पद्धति को कॉल करके

Dutch: 
Het leren van 5 bomen wordt op het scherm getoond.
In de laatste grafiek
door voorspellingen over deze bomen samen te brengen
De Random Forest-voorspelling wordt weergegeven.
We hebben hier 5 bomen gebruikt
maar in echte toepassingen kunnen meer dan 100 of 1000 bomen worden gebruikt.
Gebruik eventueel borstkankergegevens van 100 bomen
Laten we een Random Forest-applicatie maken. Voor deze
Ten eerste
dataset voor borstkanker
dataset
van module
Laten we importeren. Deze dataset
kanker
Laten we het aan de variabele toewijzen.
Om de dataset te versnipperen
opnieuw train_test_split
Laten we de functie gebruiken.
Wanneer we deze opdrachten uitvoeren
Analyse van datasets
Het is klaar.
Bestaande uit 100 bomen
Laten we een voorbeeld nemen uit de klasse Random Forest.
Voor deze
bovenstaande
Ik gebruik het commando
enkel en alleen
n_esitmators
aan het argument
Ik schrijf 100.
Na het op deze manier opzetten van het model
van het model
Door de scoremethode aan te roepen

Turkish: 
Ekranda 5 ağacın öğrenmesi gösteriliyor.
En sondaki grafikte
bu ağaçlara tahminleri bir araya getirilerek
Random Forest tahmini gösteriliyor.
Biz burada 5 ağaç kullandık
ama gerçek dünya uygulamalarında 100 ya da 1000 gibi daha fazla ağaç kullanılabilir.
İsterseniz 100 ağaçtan oluşan göğüs kanseri verilerini kullanarak
bir Random Forest uygulaması yapalım. Bunun için
öncelikle
göğüs kanseri veri setini
dataset
modülünden
import edelim. Bu veri setini
kanser
değişkenine atayalım.
Veri setini parçalamak için
yine train_test_split
fonksiyonunu kullanalım.
Bu komutları çalıştırdığımız zaman
Veri seti analize
hazır hale geldi.
100 ağaçtan oluşan
Random Forest sınıfından bir örnek alalım.
Bunun için
yukarıdaki
komutu kullanıyorum
sadece
n_esitmators
argümanına
100 yazıyorum.
Modeli bu şekilde kurduktan sonra
modelinin
score metodunu çağırarak

Dutch: 
Laten we de prestaties van het model bekijken.
En het resultaat
0,97 uitvoer. Willekeurig bos
voor deze dataset
met behulp van een beslissingsboom
van het gevestigde model
het werkte beter. Voor Random Forest
tientallen of honderden bomen kunnen worden gebruikt.
ook
deze bomen zijn attributen
omdat ze subsets van
ze gaan dieper.
Vandaar
Random Forest interpreteren
Het is moeilijker te interpreteren dan een enkele boom.
Eenvoudig gevisualiseerd en gemakkelijk te interpreteren
als je een snelkoppeling nodig hebt
het is beter om één beslissingsboom te kiezen.
Verloopstimulerende regressie
bomen om sterkere modellen te creëren
 
331
00: 11: 48,351 -> 00: 11: 51,679
Het is een andere ensemble-methode die meerdere beslissingsbomen toevoegt.
Hoewel de naam van deze methode regressie is
Het wordt gebruikt voor zowel regressie als classificatie.
Willekeurige bosbenadering

German: 
Lassen Sie uns die Leistung des Modells sehen.
Und das Ergebnis
0,97 Ausgabe. Zufälliger Wald
für diesen Datensatz
Verwenden eines Entscheidungsbaums
aus dem etablierten Modell
es hat besser funktioniert. Für zufälligen Wald
Dutzende oder Hunderte von Bäumen können verwendet werden.
ebenfalls
Diese Bäume sind Attribute
weil sie Teilmengen von verwenden
sie gehen tiefer.
Daher
Zufälliger Wald interpretieren
Es ist schwieriger zu interpretieren als ein einzelner Baum.
Einfach visualisiert und leicht zu interpretieren
wenn Sie eine Verknüpfung benötigen
Es ist besser, einen einzelnen Entscheidungsbaum auszuwählen.
Gradient Boosting Regression
Bäume, um stärkere Modelle zu schaffen
 
331
00: 11: 48,351 -> 00: 11: 51,679
Es ist eine weitere Ensemble-Methode, die mehrere Entscheidungsbäume hinzufügt.
Obwohl der Name dieser Methode Regression ist
Es wird sowohl für die Regression als auch für die Klassifizierung verwendet.
Zufälliger Waldansatz

French: 
Voyons les performances du modèle.
Et le résultat
0,97 sortie. Forêt aléatoire
pour cet ensemble de données
en utilisant un arbre de décision
du modèle établi
cela fonctionnait mieux. Pour Random Forest
des dizaines ou des centaines d'arbres peuvent être utilisés.
aussi
ces arbres sont des attributs
car ils utilisent des sous-ensembles de
ils vont plus loin.
Par conséquent
Interprétation de la forêt aléatoire
Il est plus difficile à interpréter qu'un seul arbre.
Simplement visualisé et facilement interprété
si vous avez besoin d'un raccourci
il vaut mieux choisir un seul arbre de décision.
Régression augmentant le gradient
arbres pour créer des modèles plus solides
 
331
00: 11: 48,351 -> 00: 11: 51.679
C'est une autre méthode d'ensemble qui ajoute plusieurs arbres de décision.
Bien que le nom de cette méthode soit la régression
Il est utilisé à la fois pour la régression et la classification.
Approche Random Forest

English: 
Let's see the performance of the model now.
The result 
is 0.97.
The random forest
performed better for this data set
than the model established
using a decision tree.
10 or 100 trees can be used in random forests,
and
these trees
go deeper because they use 
sub-sets of attributes.
Hence
interpreting random forests is
more difficult than interpreting a single decision tree.
If you need a predictor that is simple 
to visualize and interpret easily,
it is better to choose a single decision tree.
Gradient boosted regression trees
are another ensemble method that aggregates 
multiple decision trees to create more powerful models.
Although the name of this method is regression, 
it is used for both regression and classification.
In contrast to the Random Forests approach,

Spanish: 
Veamos el desempeño del modelo.
Y el resultado
0,97 de salida. Bosque aleatorio
para este conjunto de datos
usando un árbol de decisiones
del modelo establecido
funcionó mejor. Para bosque aleatorio
se pueden utilizar decenas o cientos de árboles.
además
estos árboles son atributos
porque usan subconjuntos de
van más profundo.
Por lo tanto
Interpretación del bosque aleatorio
Es más difícil de interpretar que un solo árbol.
Simplemente visualizado y fácilmente interpretado
si necesitas un atajo
es mejor elegir un solo árbol de decisiones.
Regresión de aumento de gradiente
árboles para crear modelos más fuertes
 
331
00: 11: 48,351 -> 00: 11: 51,679
Es otro método de conjunto que agrega múltiples árboles de decisión.
Aunque el nombre de este método es regresión
Se utiliza tanto para regresión como para clasificación.
Enfoque de bosque aleatorio

Arabic: 
دعونا نرى أداء النموذج.
والنتيجة
0.97 الإخراج. غابة عشوائية
لمجموعة البيانات هذه
باستخدام شجرة القرار
من النموذج المعمول به
عملت بشكل أفضل. للغابة العشوائية
يمكن استخدام عشرات أو مئات الأشجار.
أيضا
هذه الأشجار هي سمات
لأنهم يستخدمون مجموعات فرعية من
يذهبون أعمق.
بالتالي
تفسير الغابة العشوائية
من الصعب تفسيرها أكثر من تفسير شجرة واحدة.
تصور ببساطة ويسهل تفسيره
إذا كنت بحاجة إلى اختصار
من الأفضل اختيار شجرة قرار واحدة.
الانحدار تعزيز الانحدار
الأشجار لخلق نماذج أقوى
 
331
00: 11: 48351 -> 00: 11: 51679
إنها طريقة تجميع أخرى تضيف أشجار قرارات متعددة.
على الرغم من أن اسم هذه الطريقة هو الانحدار
يتم استخدامه لكل من الانحدار والتصنيف.
نهج الغابة العشوائية

Turkish: 
modelin performansını görelim.
Ve sonuç
0.97 çıktı. Random Forest
bu veri seti için
bir karar ağacı kullanarak
kurulan modelden
daha iyi sonuç verdi. Random Forest için
onlarca veya yüzlerce ağaç kullanılabilir.
Ayrıca
bu ağaçlar özniteliklerin
alt kümelerini kullandıkları için
daha derine giderler.
Dolayısıyla
Random Forest'i yorumlamak
tek bir ağacı yorumlamaktan daha zordur.
Eğer basitçe görselleşen ve kolayca yorumlanan
bir kestiriciye ihtiyacınız varsa
tek bir karar ağacı seçmek daha iyidir.
Gradient boosting regresyon
ağaçları daha güçlü model oluşturmak için
 
331
00:11:48,351 --> 00:11:51,679
çoklu karar ağaçlarını toplayan diğer bir ensemble metodudur.
Bu metodun ismi regresyon olmasına rağmen
Hem regresyon hem de sınıflama için kullanılır.
Random Forest yaklaşımını

Hindi: 
आइए देखें मॉडल का प्रदर्शन।
और नतीजा
0.97 आउटपुट। बेतरतीब जंगल
इस डेटा सेट के लिए
एक निर्णय पेड़ का उपयोग कर
स्थापित मॉडल से
इसने बेहतर काम किया। यादृच्छिक वन के लिए
दसियों या सैकड़ों पेड़ों का उपयोग किया जा सकता है।
भी
ये पेड़ विशेषता हैं
क्योंकि वे सबसेट का उपयोग करते हैं
वे और गहरे जाते हैं।
अत
यादृच्छिक वन की व्याख्या करना
एकल वृक्ष की तुलना में व्याख्या करना अधिक कठिन है।
बस कल्पना की और आसानी से व्याख्या की
अगर आपको शॉर्टकट की जरूरत है
एकल निर्णय वृक्ष चुनना बेहतर है।
ग्रेडिएंट बूस्टिंग रिग्रेशन
पेड़ मजबूत मॉडल बनाने के लिए
 
331
00: 11: 48,351 -> 00: 11: 51,679
यह एक और पहनावा तरीका है जो कई निर्णय पेड़ों को जोड़ता है।
हालांकि इस पद्धति का नाम प्रतिगमन है
इसका उपयोग प्रतिगमन और वर्गीकरण दोनों के लिए किया जाता है।
यादृच्छिक वन दृष्टिकोण

Dutch: 
integendeel, deze methode
elke boom probeert de fouten van de vorige boom te verifiëren.
Elke boom raadt een stukje gegevens goed.
Naarmate de boom wordt toegevoegd, neemt de prestatie van het model toe, deze methode heb ik zojuist gebruikt.
Laten we het laten zien in de dataset van borstkanker. Allereerst nogmaals
Esemble
van module
Verloop
Opstartclassificatie
Laten we de klas importeren.
We hadden de dataset eerder opgesplitst.
Van deze klasse
Laten we een voorbeeld nemen.
De volgende
Door de fit-methode aan te roepen
Laten we het model opzetten.
We hebben het supermodel opgezet.
Nu
de trainings- en testgegevens van het model
Laten we de prestaties bekijken. Hiervoor weer
We gebruiken de scoremethode.
Ten eerste
schrijf de naam van het model
De volgende
We noemen de scoremethode.
Later
commando's
trainings- en testgegevens
we organiseren voor.
Wanneer we deze opdrachten uitvoeren
uw model
hun accuratesse op training en testgegevens werden op het scherm geschreven.

German: 
im Gegenteil, diese Methode
Jeder Baum versucht, die Fehler des vorherigen Baums zu überprüfen.
Jeder Baum errät ein Datenelement gut.
Wenn der Baum hinzugefügt wird, erhöht sich die Leistung des Modells. Diese Methode habe ich gerade verwendet.
Lassen Sie es uns im Brustkrebs-Datensatz zeigen. Zuallererst wieder
Esemble
vom Modul
Gradient
Bootsting-Klassifikator
Importieren wir die Klasse.
Wir hatten zuvor den Datensatz aufgeteilt.
Aus dieser Klasse
Nehmen wir ein Beispiel.
Nächster
Durch Aufrufen der Fit-Methode
Lassen Sie uns das Modell einrichten.
Wir haben das Supermodel aufgebaut.
Jetzt
die Trainings- und Testdaten des Modells
Mal sehen, seine Leistung. Dafür nochmal
Wir verwenden die Score-Methode.
zuerst
Schreiben Sie den Namen des Modells
Nächster
Wir nennen die Score-Methode.
Später
Befehle
Trainings- und Testdaten
wir organisieren für.
Wenn wir diese Befehle ausführen
Ihr Modell
Ihre Genauigkeit bei Trainings- und Testdaten wurde auf den Bildschirm geschrieben.

Turkish: 
tersine bu metot
her bir ağaç önceki ağacın hatalarını doğrulamaya çalışır.
Her bir ağaç verinin bir parçasını iyi tahmin eder.
Ağaç eklendikçe modelin performansı artar bu metodu biraz önce kullandığım
göğüs kanseri veri setinde gösterelim. Öncelikle yine
Esemble
modülünden
Gradient
Bootsting Classifier
sınıfını import edelim.
Önceden veri setini parçalamıştık.
Bu sınıftan
bir örnek alalım.
Ardından
fit metodunu çağırarak
modeli kuralım.
Süper modeli kurduk.
Şimdi
modelin eğitim ve test verisi üzerindeki
performansını görelim. Bunun için yine
score metodunu kullanıyoruz.
Öncelikle
modelin ismini yazıp
ardından
score metodunu çağırıyoruz.
Daha sonra
komutları
eğitim ve test verisi
için düzenliyoruz.
Bu komutları çalıştırdığımız zaman
modelin
eğitim ve test verisi üzerindeki doğrulukları ekrana yazıldı.

Hindi: 
इसके विपरीत, यह विधि
प्रत्येक पेड़ पिछले पेड़ की त्रुटियों को सत्यापित करने की कोशिश करता है।
प्रत्येक पेड़ डेटा के एक टुकड़े को अच्छी तरह से अनुमान लगाता है।
जैसे ही पेड़ जोड़ा जाता है, मॉडल का प्रदर्शन बढ़ जाता है। यह तरीका मैंने अभी उपयोग किया है।
आइए इसे स्तन कैंसर डाटासेट में दिखाएं। सबसे पहले फिर से
Esemble
मॉड्यूल से
ढाल
बूटिंग क्लासीफायर
चलो वर्ग आयात करते हैं।
हमने पहले डेटा सेट को विभाजित किया था।
इस वर्ग से
एक उदाहरण लेते हैं।
आगे
फिट विधि कहकर
चलो मॉडल सेट करें।
हमने सुपर मॉडल स्थापित किया।
अभी
मॉडल का प्रशिक्षण और परीक्षण डेटा
आइए देखते हैं इसका प्रदर्शन। इसके लिए फिर से
हम स्कोर पद्धति का उपयोग करते हैं।
पहले तो
मॉडल का नाम लिखें
आगे
हम स्कोर विधि कहते हैं।
बाद में
आदेशों
प्रशिक्षण और परीक्षण डेटा
हम आयोजन करते हैं।
जब हम ये कमांड चलाते हैं
आपका मॉडल
प्रशिक्षण और परीक्षण डेटा पर उनकी सटीकता स्क्रीन पर लिखी गई थी।

Spanish: 
por el contrario, este método
cada árbol intenta verificar los errores del árbol anterior.
Cada árbol adivina bien un dato.
A medida que se agrega el árbol, aumenta el rendimiento del modelo, método que acabo de utilizar.
Mostrémoslo en el conjunto de datos de cáncer de mama. Primero de todo otra vez
Ensamblar
del módulo
Degradado
Clasificador de arranque
Importamos la clase.
Anteriormente habíamos dividido el conjunto de datos.
De esta clase
Pongamos un ejemplo.
próximo
Llamando al método de ajuste
Configuremos el modelo.
Configuramos el súper modelo.
Ahora
los datos de prueba y entrenamiento del modelo
Veamos su desempeño. Por esto de nuevo
Usamos el método de puntuación.
en primer lugar
escribe el nombre del modelo
siguiente
Llamamos al método de puntuación.
Luego
comandos
datos de entrenamiento y prueba
organizamos para.
Cuando ejecutamos estos comandos
tu modelo
sus precisiones en los datos de entrenamiento y prueba se escribieron en la pantalla.

Arabic: 
على العكس من ذلك ، هذه الطريقة
تحاول كل شجرة التحقق من أخطاء الشجرة السابقة.
كل شجرة تخمن قطعة من البيانات بشكل جيد.
عند إضافة الشجرة ، يزداد أداء النموذج ، وهذه الطريقة التي استخدمتها للتو.
دعنا نظهره في مجموعة بيانات سرطان الثدي. أولا وقبل كل شيء مرة أخرى
Esemble
من الوحدة
الانحدار
Bootsting مصنف
دعنا نستورد الفصل.
سبق أن قمنا بتقسيم مجموعة البيانات.
من هذه الفئة
لنأخذ مثالا.
التالى
عن طريق استدعاء الطريقة المناسبة
لنقم بإعداد النموذج.
أنشأنا النموذج الفائق.
الآن
تدريب النموذج وبيانات الاختبار
دعونا نرى أدائها. لهذا مرة أخرى
نحن نستخدم طريقة النقاط.
أولا
اكتب اسم النموذج
التالى
نسمي طريقة النتيجة.
في وقت لاحق
أوامر
بيانات التدريب والاختبار
ننظم ل.
عندما نقوم بتشغيل هذه الأوامر
نموذجك
تمت كتابة دقة بيانات التدريب والاختبار على الشاشة.

French: 
au contraire, cette méthode
chaque arbre essaie de vérifier les erreurs de l'arbre précédent.
Chaque arbre devine bien une donnée.
Au fur et à mesure que l'arborescence est ajoutée, les performances du modèle augmentent.Cette méthode que je viens d'utiliser.
Montrons-le dans l'ensemble de données sur le cancer du sein. Tout d'abord encore
Esemble
du module
Pente
Classificateur de démarrage
Importons la classe.
Nous avions précédemment fractionné l'ensemble de données.
De cette classe
Prenons un exemple.
Prochain
En appelant la méthode fit
Configurons le modèle.
Nous avons mis en place le super modèle.
Maintenant
les données d'entraînement et de test du modèle
Voyons ses performances. Pour cela encore
Nous utilisons la méthode du score.
d'abord
écrivez le nom du modèle
suivant
Nous appelons la méthode du score.
Plus tard
commandes
données d'entraînement et de test
nous organisons pour.
Lorsque nous exécutons ces commandes
votre modèle
leurs précisions sur les données d'entraînement et de test étaient écrites à l'écran.

English: 
this method tries to
verify each tree's errors in previous trees.
Each tree well guesses a piece of data.
The performance of the model increases as the tree is added.
Let's show this method in the breast cancer dataset I just used.
First,
let's import
GradientBoostingClassifiers
class from 
the ensemble.
We had previously split data sets.
Let's take an example
from the class.
and then
Let's fit model
using fit method
Awesome the model has been fitted.
Now
Let's see the performce of the model
on training and test data.
Let me use score method
First
i am going to write name of model
and then
call score method.
Daha sonra
After that
we are going to arrange
for train and test sets
Let me run these codes
The accuracy of model
is written on train and test sets on the screen.

Arabic: 
معدل دقة النموذج في بيانات التدريب هو 1 مخرج هنا على الأرجح
هناك مشكلة تجهيز.
لفتح هذه المشكلة
دعونا نضبط أقصى عمق.
لهذا
نحن نستخدم معلمة ارتفاع max_depth. هذه الخلية
لنقم بتشغيله مرة أخرى.
التالى
من النموذج الذي بنيته
على بيانات التدريب والاختبار
قيم الدقة
لنرى مرة أخرى. إذا انتبهت
نموذجك
على بيانات التدريب
انخفضت قيمة الدقة قليلاً.
لذا فإن نموذجك متطرف
مناسب
انخفض قليلا.
معلمة مهمة أخرى في هذه الطريقة
هو معدل التعلم.
هذه المعلمة
يوضح مقدار الجهد الذي سيتم بذله للتحقق من ذاكرة الشجرة السابقة.
لهذا
إلى المثال الذي أخذناه من الفصل
اكتب المعلمة الفائقة لمعدل التعلم و
إلى
بعد إدخال 0.01 ، أعيد تثبيت النموذج.
أقوم بطباعة قيم الدقة مرة أخرى على الشاشة وهكذا
تعقيد النموذج
أكثر من المناسب

Dutch: 
De nauwkeurigheid van het model in de trainingsgegevens is hier waarschijnlijk 1 uitvoer
Er is een probleem met overfitting.
Om dit probleem te openen
Laten we de maximale diepte instellen.
Voor deze
We gebruiken de hyperparameter max_depth. Deze cel
Laten we het nog een keer doen.
De volgende
van het model dat ik heb gebouwd
op training en testgegevens
nauwkeurigheidswaarden
Laten we nog eens kijken. Als je oplet
uw model
op trainingsgegevens
nauwkeurigheidswaarde enigszins afgenomen.
Dus uw model is extreem
passend
is iets afgenomen.
Een andere belangrijke hyperparameter in deze methode
is het leertempo.
Deze parameter
het laat zien hoeveel moeite het kost om het geheugen van de vorige boom te verifiëren.
Voor deze
naar het voorbeeld dat we uit de klas namen
Schrijf de hyperparameter voor leertempo en
in
Nadat ik 0.01 heb ingevoerd, installeer ik het model opnieuw.
Ik print de nauwkeurigheidswaarden terug naar het scherm en zo
complexiteit van het model
dus over passend

English: 
The accuracy rate of the model in the training data turned out to be 1.
There is probably an overfitting problem here.
Let's adjust the maximum depth
to overcome this problem.
For this let me use
max_depth hyper parameter
Let's run again.
and then
let's look at
the performance of the model
in the data again.
on train and test sets
The overfitness 
of the model
has been slightly reduced.
So overfitting problem
slightly 
reduced.
Another important hyperparameter in
this method is learning_rate.
This parameter indicates
how much effort will be taken to verify the previous tree's error.
For this
let me set 
0.01 for learng parametre
after that
we are going to again fit model. 
Let me print again accuracy on the screen.
The complexity of the model
has become 

Hindi: 
प्रशिक्षण डेटा में मॉडल की सटीकता दर शायद यहां 1 आउटपुट है
ओवरफिटिंग की समस्या है।
इस समस्या को खोलने के लिए
अधिकतम गहराई सेट करते हैं।
इसके लिए
हम max_depth हाइपर पैरामीटर का उपयोग कर रहे हैं। यह सेल
चलो इसे फिर से चलाते हैं।
आगे
मैंने जो मॉडल बनाया है
प्रशिक्षण और परीक्षण डेटा पर
सटीकता मूल्य
चलिए फिर देखते हैं। अगर आप ध्यान देंगे
आपका मॉडल
प्रशिक्षण डेटा पर
सटीकता मूल्य थोड़ा कम हो गया।
तो आपका मॉडल चरम है
फिटिंग
थोड़ा कम हुआ है।
इस विधि में एक और महत्वपूर्ण हाइपरपरमीटर
सीखने की दर है।
यह पैरामीटर
यह दर्शाता है कि पिछले पेड़ की स्मृति को सत्यापित करने के लिए कितना प्रयास किया जाएगा।
इसके लिए
उदाहरण के लिए हमने कक्षा से लिया
सीखने की दर हाइपरपरमीटर और लिखें
में
0.01 दर्ज करने के बाद, मैं मॉडल को फिर से स्थापित करता हूं।
मैं स्क्रीन पर वापस सटीकता मान मुद्रित करता हूं और इसी तरह
मॉडल की जटिलता
इतनी फिटिंग पर

French: 
Le taux de précision du modèle dans les données d'entraînement est probablement de 1 sortie ici
Il y a un problème de surajustement.
Pour ouvrir ce problème
Définissons la profondeur maximale.
Pour ça
Nous utilisons l'hyper paramètre max_depth. Cette cellule
Lançons-le à nouveau.
Prochain
du modèle que j'ai construit
sur les données d'entraînement et de test
valeurs de précision
Voyons voir à nouveau. Si vous faites attention
votre modèle
sur les données d'entraînement
la valeur de précision a légèrement diminué.
Donc votre modèle est extrême
raccord
a un peu diminué.
Un autre hyperparamètre important dans cette méthode
est le taux d'apprentissage.
Ce paramètre
il montre combien d'efforts seront nécessaires pour vérifier la mémoire de l'arbre précédent.
Pour ça
à l'exemple que nous avons pris de la classe
Écrire l'hyperparamètre de taux d'apprentissage et
dans
Après avoir entré 0,01, je réinstalle le modèle.
J'imprime les valeurs de précision à l'écran et ainsi
complexité du modèle
tellement trop ajusté

Spanish: 
La tasa de precisión del modelo en los datos de entrenamiento es 1 salida aquí probablemente
Hay un problema de sobreajuste.
Para abrir este problema
Establezcamos la profundidad máxima.
Para esto
Estamos usando el hiperparámetro max_depth. Esta celda
Ejecútelo de nuevo.
próximo
del modelo que construí
sobre datos de entrenamiento y prueba
valores de precisión
Veamos de nuevo. Si prestas atención
tu modelo
en datos de entrenamiento
el valor de precisión disminuyó ligeramente.
Entonces tu modelo es extremo
adecuado
ha disminuido un poco.
Otro hiperparámetro importante en este método
es la tasa de aprendizaje.
Este parámetro
muestra cuánto esfuerzo se tomará para verificar la memoria del árbol anterior.
Para esto
al ejemplo que tomamos de la clase
Escriba el hiperparámetro de la tasa de aprendizaje y
dentro
Después de ingresar 0.01, reinstalo el modelo.
Imprimo los valores de precisión de nuevo en la pantalla y así
complejidad del modelo
tan sobreajustado

Turkish: 
Modelin eğitim verisindeki doğruluk oranı 1 çıktı burada muhtemelen
overfitting yani aşırı uydurma problemi var.
Bu problemi açmak için
maksimum derinliği ayarlayalım.
Bunun için
max_depth hiper parametresini kullanıyoruz. Bu hücreyi
tekrar çalıştıralım.
Ardından
kurduğum modelin
eğitim ve test verisi üzerindeki
doğruluk değerlerini
tekrardan görelim. Dikkat ederseniz
modelin
eğitim verisi üzerindeki
doğruluk değeri biraz azaldı.
Yani modelin aşırı
uydurulması
biraz azalmış oldu.
Bu metotta diğer önemli hiperparametre
learning rate'dir.
Bu parametre
önceki ağacın hatısını doğrulamak için ne kadar çaba harcanacağını gösterir.
Bunun için
sınıftan aldığımız örneğe
learning rate hiperparametresini yazıp
içerisine
0.01 girdikten sonra modeli tekrardan kuruyorum.
Doğruluk değerleri tekrardan ekrana yazdırıyorum ve böylece
modelin kompleksliği
yani aşırı uydurulması

German: 
Die Genauigkeitsrate des Modells in den Trainingsdaten beträgt hier wahrscheinlich 1 Ausgabe
Es liegt ein Überanpassungsproblem vor.
Um dieses Problem zu öffnen
Lassen Sie uns die maximale Tiefe einstellen.
Dafür
Wir verwenden den Hyperparameter max_depth. Diese Zelle
Lassen Sie es uns noch einmal ausführen.
Nächster
des Modells, das ich gebaut habe
zu Trainings- und Testdaten
Genauigkeitswerte
Mal sehen. Wenn Sie aufpassen
Ihr Modell
auf Trainingsdaten
Genauigkeitswert leicht verringert.
Ihr Modell ist also extrem
passend zu
hat ein wenig abgenommen.
Ein weiterer wichtiger Hyperparameter bei dieser Methode
ist die Lernrate.
Dieser Parameter
Es zeigt, wie viel Aufwand erforderlich ist, um den Speicher des vorherigen Baums zu überprüfen.
Dafür
zu dem Beispiel, das wir aus der Klasse genommen haben
Schreiben Sie den Lernraten-Hyperparameter und
in
Nach Eingabe von 0,01 installiere ich das Modell erneut.
Ich drucke die Genauigkeitswerte zurück auf den Bildschirm und so weiter
Komplexität des Modells
also überanpassen

Spanish: 
se volvió un poco menos.
Esto es todo lo que puedo decir sobre Esemble.
Si le gusta nuestro video, haga clic en el botón Me gusta, si no se suscribe para suscribirse a nuestro canal
No olvides verte en la próxima lección. Adios ahora...

Turkish: 
biraz daha azalmış oldu.
Esemble konusu ile ilgili anlatacaklarım bu kadar.
Adettendir videomuzu beğendiyseniz beğen tuşuna basmayı abone değilseniz kanalımıza abone olmayı
unutmayın gelecek derse görüşmek üzere. Şimdilik hoşçakalın...

Dutch: 
het werd een beetje minder.
Dit is alles wat ik kan vertellen over Esemble.
Als je onze video leuk vindt, klik dan op de vind-ik-leuk-knop, als je niet geabonneerd bent, abonneer je dan op ons kanaal.
Vergeet je volgende les niet te zien. Dag...

French: 
c'est devenu un peu moins.
C'est tout ce que je peux dire sur Esemble.
Si vous aimez notre vidéo, cliquez sur le bouton J'aime, si vous ne vous abonnez pas, abonnez-vous à notre chaîne.
N'oubliez pas de vous voir à la prochaine leçon. Et maintenant, au revoir...

German: 
es wurde etwas weniger.
Das ist alles, was ich über Esemble erzählen kann.
Wenn Ihnen unser Video gefällt, klicken Sie auf die Schaltfläche "Gefällt mir", wenn Sie unseren Kanal nicht abonnieren
Vergiss nicht, dich in der nächsten Lektion zu sehen. Bis bald...

English: 
slightly less.
That is all.
If you enjoyed make sure to leave a like subscribe 
I will see you in another video.

Hindi: 
यह थोड़ा कम हो गया।
यह सब मैं एस्मेब के बारे में बता सकता हूं।
अगर आपको हमारा वीडियो पसंद आया तो लाइक बटन पर क्लिक करें, अगर आपको सब्सक्राइब नहीं करना है तो हमारे चैनल को सब्सक्राइब करें।
आपको अगला पाठ देखना न भूलें। अलविदा...

Arabic: 
أصبح أقل قليلاً.
هذا كل ما يمكنني قوله عن Esemble.
إذا أعجبك الفيديو الخاص بنا ، فانقر فوق الزر أعجبني ، وإذا لم تقم بالاشتراك ، فقم بالاشتراك في قناتنا.
لا تنس أن ترى لك الدرس التالي. الى اللقاء الان...
