Treatment in progress...
Close notification

We are back !

Welcome on your new side.fr !

Display notification

Régression avec Python

Hengartner Nicolas, Matzner-Løber Eric, Cornillon Pierre-André, Rouvière Laurent
Publication date 15/05/2025
EAN: 9782759824328
Availability Available from publisher
Cet ouvrage expose de manière détaillée et exemples à l'appui, différentes façons de répondre à un des problèmes statistiques les plus courants : la régression.Cette nouvelle édition se décompose en 4 parties. La première donne les grands principes d... See full description
Attribute nameAttribute value
Common books attribute
PublisherEDP SCIENCES
Page Count-
Languagefr
AuthorHengartner Nicolas, Matzner-Løber Eric, Cornillon Pierre-André, Rouvière Laurent
FormatPaperback / softback
Product typeBook
Publication date15/05/2025
Weight616 g
Dimensions (thickness x width x height)2.10 x 15.40 x 23.50 cm
Cet ouvrage expose de manière détaillée et exemples à l'appui, différentes façons de répondre à un des problèmes statistiques les plus courants : la régression.Cette nouvelle édition se décompose en 4 parties. La première donne les grands principes des régressions simple et multiple par moindres carrés. Les fondamentaux de la méthode tant au niveau des choix opérés que des hypothèses et leur utilité sont expliqués. La deuxième partie est consacrée à l'inférence et présente les outils permettant de vérifier les hypothèses mises en oeuvre. Les techniques d'analyse de la variance et de la covariance sont également présentées dans cette partie. Le cas de la grande dimension est ensuite abordé dans la troisième partie. Différentes méthodes de réduction de la dimension telles que la sélection de variables, les régressions sous contraintes (lasso, elastic-net ou ridge) et sur composantes (PLS ou PCR) sont notamment proposées. Un dernier chapitre propose des algorithmes, basés sur des méthodes de ré-échantillonnage comme l'apprentissage/validation ou la validation croisée, qui permettent d'établir une comparaison entre toutes ces méthodes.Enfin la quatrième et dernière partie se concentre sur les modèles linéaires généralisés et plus particulièrement sur les régressions logistiques et de Poisson avec ou sans technique de régularisation.Une section particulière est consacrée aux comparaisons de méthodes en classification supervisée. Elle introduit notamment des critères de performance pour « scorer » des individus comme les courbes ROC et lift et propose des stratégies de choix seuil (Youden, F1...) pour les classer. Ces notions sont ensuite mises en oeuvre sur des données réelles afin de sélectionner une méthode de prévision parmi plusieurs algorithmes basés sur des modèles logistiques (régularisés ou non).Une dernière section aborde le problème des données déséquilibrées qui est souvent rencontré en régression binaire.