Régression avec R : : 3ème édition.

Cet ouvrage expose de manière détaillée, exemples à l’appui, différentes façons de répondre à un des problèmes statistiques les plus courants : la régression. Cette nouvelle édition se décompose en cinq parties. La première donne les grands principes des régressions simple et multiple par moindres c...

Full description

Saved in:
Bibliographic Details
Superior document:Pratique R Series
VerfasserIn:
Place / Publishing House:Les Ulis : : EDP Sciences, , [2023]
©2023
Year of Publication:2023
Edition:1st ed.
Language:French
Series:Pratique R Series
Physical Description:1 online resource (452 p.)
Tags: Add Tag
No Tags, Be the first to tag this record!
id 993673150304498
ctrlnum (CKB)5710000000114611
(DE-B1597)653134
(DE-B1597)9782759831463
(OCoLC)1380732797
(MiAaPQ)EBC30800072
(Au-PeEL)EBL30800072
(PPN)272011851
(FR-PaCSA)88943679
(EXLCZ)995710000000114611
collection bib_alma
record_format marc
spelling Cornillon, Pierre-André, author. aut http://id.loc.gov/vocabulary/relators/aut
Régression avec R : 3ème édition.
1st ed.
Les Ulis : EDP Sciences, [2023]
©2023
1 online resource (452 p.)
text txt rdacontent
computer c rdamedia
online resource cr rdacarrier
Pratique R Series
Description based on online resource; title from PDF title page (publisher's Web site, viewed 29. Mai 2023)
Cet ouvrage expose de manière détaillée, exemples à l’appui, différentes façons de répondre à un des problèmes statistiques les plus courants : la régression. Cette nouvelle édition se décompose en cinq parties. La première donne les grands principes des régressions simple et multiple par moindres carrés. Les fondamentaux de la méthode, tant au niveau des choix opérés que des hypothèses et leur utilité, sont expliqués. La deuxième partie est consacrée à l’inférence et présente les outils permettant de vérifier les hypothèses mises en œuvre. Les techniques d’analyse de la variance et de la covariance sont également présentées dans cette partie. Le cas de la grande dimension est ensuite abordé dans la troisième partie. Différentes méthodes de réduction de la dimension telles que la sélection de variables, les régressions sous contraintes (lasso, elasticnet ou ridge) et sur composantes (PLS ou PCR) sont notamment proposées. Un dernier chapitre propose des algorithmes, basés sur des méthodes de rééchantillonnage comme l’apprentissage/validation ou la validation croisée, qui permettent d’établir une comparaison entre toutes ces méthodes. La quatrième partie se concentre sur les modèles linéaires généralisés et plus particulièrement sur les régressions logistique et de Poisson avec ou sans technique de régularisation. Une section particulière est consacrée aux comparaisons de méthodes en classification supervisée. Elle introduit notamment des critères de performance pour scorer des individus comme les courbes ROC et lift et propose des stratégies de choix seuil (Younden, macro F1.) pour les classer. Ces notions sont ensuite mises en œuvre sur des données réelles afin de sélectionner une méthode de prévision parmi plusieurs algorithmes basés sur des modèles logistiques (régularisés ou non). Une dernière section aborde le problème des données déséquilibrées qui est souvent rencontré en régression binaire. Enfin, la dernière partie présente l’approche non paramétrique à travers les splines, les estimateurs à noyau et des plus proches voisins. La présentation témoigne d’un réel souci pédagogique des auteurs qui bénéficient d’une expérience d’enseignement auprès de publics très variés. Les résultats exposés sont replacés dans la perspective de leur utilité pratique grâce à l’analyse d’exemples concrets. Les commandes permettant le traitement des exemples sous R figurent dans le corps du texte. Enfin, chaque chapitre est complété par une suite d’exercices corrigés. Les codes, les données et les corrections des exercices se trouvent sur le site https://regression-avec-r.github.io/ Cet ouvrage s’adresse principalement à des étudiants de Master et d’écoles d’ingénieurs ainsi qu’aux chercheurs travaillant dans les divers domaines des sciences appliquées
In French.
Frontmatter -- REMERCIEMENTS -- AVANT-PROPOS -- Table des matières -- Première partie Introduction au modèle linéaire -- Chapitre 1 La régression linéaire simple -- Chapitre 2 La régression linéaire multiple -- Chapitre 3 Validation du modèle -- Chapitre 4 Extensions : non-inversibilité et (ou) erreurs corrélées -- Deuxième partie Inférence -- Chapitre 5 Inférence dans le modèle gaussien -- Chapitre 6 Variables qualitatives : ANCOVA et ANOVA -- Troisième partie Réduction de dimension -- Chapitre 7 Choix de variables -- Chapitre 8 Régularisation des moindres carrés : ridge, lasso, elastic-net -- Chapitre 9 Régression sur composantes : PCR et PLS -- Chapitre 10 Comparaison des différentes méthodes, étude de cas réels -- Quatrième partie Le modèle linéaire généralisé -- Chapitre 11 Régression logistique -- Chapitre 12 Régression de Poisson -- Chapitre 13 Régularisation de la vraisemblance -- Chapitre 14 Comparaison des différentes méthodes en classification supervisée, études de cas réel -- Chapitre 15 Données déséquilibrées -- Cinquième partie Introduction à la régression non paramétrique -- Chapitre 16 Introduction à la régression spline -- Chapitre 17 Estimateurs à noyau et k plus proches voisins -- Annexe A Rappels -- Bibliographie -- Index -- Notations -- Fonctions et packages R
MATHEMATICS / Probability & Statistics / Regression Analysis. bisacsh
2-7598-3145-0
language French
format eBook
author Cornillon, Pierre-André,
Cornillon, Pierre-André,
spellingShingle Cornillon, Pierre-André,
Cornillon, Pierre-André,
Régression avec R : 3ème édition.
Pratique R Series
Frontmatter --
REMERCIEMENTS --
AVANT-PROPOS --
Table des matières --
Première partie Introduction au modèle linéaire --
Chapitre 1 La régression linéaire simple --
Chapitre 2 La régression linéaire multiple --
Chapitre 3 Validation du modèle --
Chapitre 4 Extensions : non-inversibilité et (ou) erreurs corrélées --
Deuxième partie Inférence --
Chapitre 5 Inférence dans le modèle gaussien --
Chapitre 6 Variables qualitatives : ANCOVA et ANOVA --
Troisième partie Réduction de dimension --
Chapitre 7 Choix de variables --
Chapitre 8 Régularisation des moindres carrés : ridge, lasso, elastic-net --
Chapitre 9 Régression sur composantes : PCR et PLS --
Chapitre 10 Comparaison des différentes méthodes, étude de cas réels --
Quatrième partie Le modèle linéaire généralisé --
Chapitre 11 Régression logistique --
Chapitre 12 Régression de Poisson --
Chapitre 13 Régularisation de la vraisemblance --
Chapitre 14 Comparaison des différentes méthodes en classification supervisée, études de cas réel --
Chapitre 15 Données déséquilibrées --
Cinquième partie Introduction à la régression non paramétrique --
Chapitre 16 Introduction à la régression spline --
Chapitre 17 Estimateurs à noyau et k plus proches voisins --
Annexe A Rappels --
Bibliographie --
Index --
Notations --
Fonctions et packages R
author_facet Cornillon, Pierre-André,
Cornillon, Pierre-André,
author_variant p a c pac
p a c pac
author_role VerfasserIn
VerfasserIn
author_sort Cornillon, Pierre-André,
title Régression avec R : 3ème édition.
title_sub 3ème édition.
title_full Régression avec R : 3ème édition.
title_fullStr Régression avec R : 3ème édition.
title_full_unstemmed Régression avec R : 3ème édition.
title_auth Régression avec R : 3ème édition.
title_alt Frontmatter --
REMERCIEMENTS --
AVANT-PROPOS --
Table des matières --
Première partie Introduction au modèle linéaire --
Chapitre 1 La régression linéaire simple --
Chapitre 2 La régression linéaire multiple --
Chapitre 3 Validation du modèle --
Chapitre 4 Extensions : non-inversibilité et (ou) erreurs corrélées --
Deuxième partie Inférence --
Chapitre 5 Inférence dans le modèle gaussien --
Chapitre 6 Variables qualitatives : ANCOVA et ANOVA --
Troisième partie Réduction de dimension --
Chapitre 7 Choix de variables --
Chapitre 8 Régularisation des moindres carrés : ridge, lasso, elastic-net --
Chapitre 9 Régression sur composantes : PCR et PLS --
Chapitre 10 Comparaison des différentes méthodes, étude de cas réels --
Quatrième partie Le modèle linéaire généralisé --
Chapitre 11 Régression logistique --
Chapitre 12 Régression de Poisson --
Chapitre 13 Régularisation de la vraisemblance --
Chapitre 14 Comparaison des différentes méthodes en classification supervisée, études de cas réel --
Chapitre 15 Données déséquilibrées --
Cinquième partie Introduction à la régression non paramétrique --
Chapitre 16 Introduction à la régression spline --
Chapitre 17 Estimateurs à noyau et k plus proches voisins --
Annexe A Rappels --
Bibliographie --
Index --
Notations --
Fonctions et packages R
title_new Régression avec R :
title_sort régression avec r : 3ème édition.
series Pratique R Series
series2 Pratique R Series
publisher EDP Sciences,
publishDate 2023
physical 1 online resource (452 p.)
edition 1st ed.
contents Frontmatter --
REMERCIEMENTS --
AVANT-PROPOS --
Table des matières --
Première partie Introduction au modèle linéaire --
Chapitre 1 La régression linéaire simple --
Chapitre 2 La régression linéaire multiple --
Chapitre 3 Validation du modèle --
Chapitre 4 Extensions : non-inversibilité et (ou) erreurs corrélées --
Deuxième partie Inférence --
Chapitre 5 Inférence dans le modèle gaussien --
Chapitre 6 Variables qualitatives : ANCOVA et ANOVA --
Troisième partie Réduction de dimension --
Chapitre 7 Choix de variables --
Chapitre 8 Régularisation des moindres carrés : ridge, lasso, elastic-net --
Chapitre 9 Régression sur composantes : PCR et PLS --
Chapitre 10 Comparaison des différentes méthodes, étude de cas réels --
Quatrième partie Le modèle linéaire généralisé --
Chapitre 11 Régression logistique --
Chapitre 12 Régression de Poisson --
Chapitre 13 Régularisation de la vraisemblance --
Chapitre 14 Comparaison des différentes méthodes en classification supervisée, études de cas réel --
Chapitre 15 Données déséquilibrées --
Cinquième partie Introduction à la régression non paramétrique --
Chapitre 16 Introduction à la régression spline --
Chapitre 17 Estimateurs à noyau et k plus proches voisins --
Annexe A Rappels --
Bibliographie --
Index --
Notations --
Fonctions et packages R
isbn 2-7598-3146-9
2-7598-3145-0
illustrated Not Illustrated
oclc_num 1380732797
work_keys_str_mv AT cornillonpierreandre regressionavecr3emeedition
status_str n
ids_txt_mv (CKB)5710000000114611
(DE-B1597)653134
(DE-B1597)9782759831463
(OCoLC)1380732797
(MiAaPQ)EBC30800072
(Au-PeEL)EBL30800072
(PPN)272011851
(FR-PaCSA)88943679
(EXLCZ)995710000000114611
carrierType_str_mv cr
hierarchy_parent_title Pratique R Series
is_hierarchy_title Régression avec R : 3ème édition.
container_title Pratique R Series
_version_ 1801435120324837378
fullrecord <?xml version="1.0" encoding="UTF-8"?><collection xmlns="http://www.loc.gov/MARC21/slim"><record><leader>05843nam a22004215i 4500</leader><controlfield tag="001">993673150304498</controlfield><controlfield tag="005">20230529101353.0</controlfield><controlfield tag="006">m|||||o||d||||||||</controlfield><controlfield tag="007">cr || ||||||||</controlfield><controlfield tag="008">230529t20232023fr fo d z fre d</controlfield><datafield tag="020" ind1=" " ind2=" "><subfield code="a">2-7598-3146-9</subfield></datafield><datafield tag="024" ind1="7" ind2=" "><subfield code="a">10.1051/978-2-7598-3146-3</subfield><subfield code="2">doi</subfield></datafield><datafield tag="035" ind1=" " ind2=" "><subfield code="a">(CKB)5710000000114611</subfield></datafield><datafield tag="035" ind1=" " ind2=" "><subfield code="a">(DE-B1597)653134</subfield></datafield><datafield tag="035" ind1=" " ind2=" "><subfield code="a">(DE-B1597)9782759831463</subfield></datafield><datafield tag="035" ind1=" " ind2=" "><subfield code="a">(OCoLC)1380732797</subfield></datafield><datafield tag="035" ind1=" " ind2=" "><subfield code="a">(MiAaPQ)EBC30800072</subfield></datafield><datafield tag="035" ind1=" " ind2=" "><subfield code="a">(Au-PeEL)EBL30800072</subfield></datafield><datafield tag="035" ind1=" " ind2=" "><subfield code="a">(PPN)272011851</subfield></datafield><datafield tag="035" ind1=" " ind2=" "><subfield code="a">(FR-PaCSA)88943679</subfield></datafield><datafield tag="035" ind1=" " ind2=" "><subfield code="a">(EXLCZ)995710000000114611</subfield></datafield><datafield tag="040" ind1=" " ind2=" "><subfield code="a">DE-B1597</subfield><subfield code="b">eng</subfield><subfield code="c">DE-B1597</subfield><subfield code="e">rda</subfield></datafield><datafield tag="041" ind1="0" ind2=" "><subfield code="a">fre</subfield></datafield><datafield tag="044" ind1=" " ind2=" "><subfield code="a">fr</subfield><subfield code="c">FR</subfield></datafield><datafield tag="072" ind1=" " ind2="7"><subfield code="a">MAT029030</subfield><subfield code="2">bisacsh</subfield></datafield><datafield tag="100" ind1="1" ind2=" "><subfield code="a">Cornillon, Pierre-André, </subfield><subfield code="e">author.</subfield><subfield code="4">aut</subfield><subfield code="4">http://id.loc.gov/vocabulary/relators/aut</subfield></datafield><datafield tag="245" ind1="0" ind2="0"><subfield code="a">Régression avec R :</subfield><subfield code="b">3ème édition.</subfield></datafield><datafield tag="250" ind1=" " ind2=" "><subfield code="a">1st ed.</subfield></datafield><datafield tag="264" ind1=" " ind2="1"><subfield code="a">Les Ulis : </subfield><subfield code="b">EDP Sciences, </subfield><subfield code="c">[2023]</subfield></datafield><datafield tag="264" ind1=" " ind2="4"><subfield code="c">©2023</subfield></datafield><datafield tag="300" ind1=" " ind2=" "><subfield code="a">1 online resource (452 p.)</subfield></datafield><datafield tag="336" ind1=" " ind2=" "><subfield code="a">text</subfield><subfield code="b">txt</subfield><subfield code="2">rdacontent</subfield></datafield><datafield tag="337" ind1=" " ind2=" "><subfield code="a">computer</subfield><subfield code="b">c</subfield><subfield code="2">rdamedia</subfield></datafield><datafield tag="338" ind1=" " ind2=" "><subfield code="a">online resource</subfield><subfield code="b">cr</subfield><subfield code="2">rdacarrier</subfield></datafield><datafield tag="490" ind1="1" ind2=" "><subfield code="a">Pratique R Series</subfield></datafield><datafield tag="588" ind1="0" ind2=" "><subfield code="a">Description based on online resource; title from PDF title page (publisher's Web site, viewed 29. Mai 2023)</subfield></datafield><datafield tag="520" ind1=" " ind2=" "><subfield code="a">Cet ouvrage expose de manière détaillée, exemples à l’appui, différentes façons de répondre à un des problèmes statistiques les plus courants : la régression. Cette nouvelle édition se décompose en cinq parties. La première donne les grands principes des régressions simple et multiple par moindres carrés. Les fondamentaux de la méthode, tant au niveau des choix opérés que des hypothèses et leur utilité, sont expliqués. La deuxième partie est consacrée à l’inférence et présente les outils permettant de vérifier les hypothèses mises en œuvre. Les techniques d’analyse de la variance et de la covariance sont également présentées dans cette partie. Le cas de la grande dimension est ensuite abordé dans la troisième partie. Différentes méthodes de réduction de la dimension telles que la sélection de variables, les régressions sous contraintes (lasso, elasticnet ou ridge) et sur composantes (PLS ou PCR) sont notamment proposées. Un dernier chapitre propose des algorithmes, basés sur des méthodes de rééchantillonnage comme l’apprentissage/validation ou la validation croisée, qui permettent d’établir une comparaison entre toutes ces méthodes. La quatrième partie se concentre sur les modèles linéaires généralisés et plus particulièrement sur les régressions logistique et de Poisson avec ou sans technique de régularisation. Une section particulière est consacrée aux comparaisons de méthodes en classification supervisée. Elle introduit notamment des critères de performance pour scorer des individus comme les courbes ROC et lift et propose des stratégies de choix seuil (Younden, macro F1.) pour les classer. Ces notions sont ensuite mises en œuvre sur des données réelles afin de sélectionner une méthode de prévision parmi plusieurs algorithmes basés sur des modèles logistiques (régularisés ou non). Une dernière section aborde le problème des données déséquilibrées qui est souvent rencontré en régression binaire. Enfin, la dernière partie présente l’approche non paramétrique à travers les splines, les estimateurs à noyau et des plus proches voisins. La présentation témoigne d’un réel souci pédagogique des auteurs qui bénéficient d’une expérience d’enseignement auprès de publics très variés. Les résultats exposés sont replacés dans la perspective de leur utilité pratique grâce à l’analyse d’exemples concrets. Les commandes permettant le traitement des exemples sous R figurent dans le corps du texte. Enfin, chaque chapitre est complété par une suite d’exercices corrigés. Les codes, les données et les corrections des exercices se trouvent sur le site https://regression-avec-r.github.io/ Cet ouvrage s’adresse principalement à des étudiants de Master et d’écoles d’ingénieurs ainsi qu’aux chercheurs travaillant dans les divers domaines des sciences appliquées</subfield></datafield><datafield tag="546" ind1=" " ind2=" "><subfield code="a">In French.</subfield></datafield><datafield tag="505" ind1="0" ind2="0"><subfield code="t">Frontmatter -- </subfield><subfield code="t">REMERCIEMENTS -- </subfield><subfield code="t">AVANT-PROPOS -- </subfield><subfield code="t">Table des matières -- </subfield><subfield code="t">Première partie Introduction au modèle linéaire -- </subfield><subfield code="t">Chapitre 1 La régression linéaire simple -- </subfield><subfield code="t">Chapitre 2 La régression linéaire multiple -- </subfield><subfield code="t">Chapitre 3 Validation du modèle -- </subfield><subfield code="t">Chapitre 4 Extensions : non-inversibilité et (ou) erreurs corrélées -- </subfield><subfield code="t">Deuxième partie Inférence -- </subfield><subfield code="t">Chapitre 5 Inférence dans le modèle gaussien -- </subfield><subfield code="t">Chapitre 6 Variables qualitatives : ANCOVA et ANOVA -- </subfield><subfield code="t">Troisième partie Réduction de dimension -- </subfield><subfield code="t">Chapitre 7 Choix de variables -- </subfield><subfield code="t">Chapitre 8 Régularisation des moindres carrés : ridge, lasso, elastic-net -- </subfield><subfield code="t">Chapitre 9 Régression sur composantes : PCR et PLS -- </subfield><subfield code="t">Chapitre 10 Comparaison des différentes méthodes, étude de cas réels -- </subfield><subfield code="t">Quatrième partie Le modèle linéaire généralisé -- </subfield><subfield code="t">Chapitre 11 Régression logistique -- </subfield><subfield code="t">Chapitre 12 Régression de Poisson -- </subfield><subfield code="t">Chapitre 13 Régularisation de la vraisemblance -- </subfield><subfield code="t">Chapitre 14 Comparaison des différentes méthodes en classification supervisée, études de cas réel -- </subfield><subfield code="t">Chapitre 15 Données déséquilibrées -- </subfield><subfield code="t">Cinquième partie Introduction à la régression non paramétrique -- </subfield><subfield code="t">Chapitre 16 Introduction à la régression spline -- </subfield><subfield code="t">Chapitre 17 Estimateurs à noyau et k plus proches voisins -- </subfield><subfield code="t">Annexe A Rappels -- </subfield><subfield code="t">Bibliographie -- </subfield><subfield code="t">Index -- </subfield><subfield code="t">Notations -- </subfield><subfield code="t">Fonctions et packages R</subfield></datafield><datafield tag="650" ind1=" " ind2="7"><subfield code="a">MATHEMATICS / Probability &amp; Statistics / Regression Analysis.</subfield><subfield code="2">bisacsh</subfield></datafield><datafield tag="776" ind1=" " ind2=" "><subfield code="z">2-7598-3145-0</subfield></datafield><datafield tag="830" ind1=" " ind2="0"><subfield code="a">Pratique R Series</subfield></datafield><datafield tag="906" ind1=" " ind2=" "><subfield code="a">BOOK</subfield></datafield><datafield tag="ADM" ind1=" " ind2=" "><subfield code="b">2024-06-10 02:55:50 Europe/Vienna</subfield><subfield code="f">System</subfield><subfield code="c">marc21</subfield><subfield code="a">2023-04-02 14:12:45 Europe/Vienna</subfield><subfield code="g">false</subfield></datafield><datafield tag="AVE" ind1=" " ind2=" "><subfield code="i">DOAB Directory of Open Access Books</subfield><subfield code="P">DOAB Directory of Open Access Books</subfield><subfield code="x">https://eu02.alma.exlibrisgroup.com/view/uresolver/43ACC_OEAW/openurl?u.ignore_date_coverage=true&amp;portfolio_pid=5355894060004498&amp;Force_direct=true</subfield><subfield code="Z">5355894060004498</subfield><subfield code="b">Available</subfield><subfield code="8">5355894060004498</subfield></datafield></record></collection>