Régression avec R : : 3ème édition.

Cet ouvrage expose de manière détaillée, exemples à l’appui, différentes façons de répondre à un des problèmes statistiques les plus courants : la régression. Cette nouvelle édition se décompose en cinq parties. La première donne les grands principes des régressions simple et multiple par moindres c...

Full description

Saved in:
Bibliographic Details
Superior document:Title is part of eBook package: De Gruyter DG Plus PP Package 2023 Part 2
Place / Publishing House:Les Ulis : : EDP Sciences, , [2023]
©2023
Year of Publication:2023
Language:French
Online Access:
Physical Description:1 online resource (452 p.)
Tags: Add Tag
No Tags, Be the first to tag this record!
id 9782759831463
ctrlnum (DE-B1597)653134
collection bib_alma
record_format marc
spelling Régression avec R : 3ème édition.
Les Ulis : EDP Sciences, [2023]
©2023
1 online resource (452 p.)
text txt rdacontent
computer c rdamedia
online resource cr rdacarrier
text file PDF rda
Frontmatter -- REMERCIEMENTS -- AVANT-PROPOS -- Table des matières -- Première partie Introduction au modèle linéaire -- Chapitre 1 La régression linéaire simple -- Chapitre 2 La régression linéaire multiple -- Chapitre 3 Validation du modèle -- Chapitre 4 Extensions : non-inversibilité et (ou) erreurs corrélées -- Deuxième partie Inférence -- Chapitre 5 Inférence dans le modèle gaussien -- Chapitre 6 Variables qualitatives : ANCOVA et ANOVA -- Troisième partie Réduction de dimension -- Chapitre 7 Choix de variables -- Chapitre 8 Régularisation des moindres carrés : ridge, lasso, elastic-net -- Chapitre 9 Régression sur composantes : PCR et PLS -- Chapitre 10 Comparaison des différentes méthodes, étude de cas réels -- Quatrième partie Le modèle linéaire généralisé -- Chapitre 11 Régression logistique -- Chapitre 12 Régression de Poisson -- Chapitre 13 Régularisation de la vraisemblance -- Chapitre 14 Comparaison des différentes méthodes en classification supervisée, études de cas réel -- Chapitre 15 Données déséquilibrées -- Cinquième partie Introduction à la régression non paramétrique -- Chapitre 16 Introduction à la régression spline -- Chapitre 17 Estimateurs à noyau et k plus proches voisins -- Annexe A Rappels -- Bibliographie -- Index -- Notations -- Fonctions et packages R
restricted access http://purl.org/coar/access_right/c_16ec online access with authorization star
Cet ouvrage expose de manière détaillée, exemples à l’appui, différentes façons de répondre à un des problèmes statistiques les plus courants : la régression. Cette nouvelle édition se décompose en cinq parties. La première donne les grands principes des régressions simple et multiple par moindres carrés. Les fondamentaux de la méthode, tant au niveau des choix opérés que des hypothèses et leur utilité, sont expliqués. La deuxième partie est consacrée à l’inférence et présente les outils permettant de vérifier les hypothèses mises en œuvre. Les techniques d’analyse de la variance et de la covariance sont également présentées dans cette partie. Le cas de la grande dimension est ensuite abordé dans la troisième partie. Différentes méthodes de réduction de la dimension telles que la sélection de variables, les régressions sous contraintes (lasso, elasticnet ou ridge) et sur composantes (PLS ou PCR) sont notamment proposées. Un dernier chapitre propose des algorithmes, basés sur des méthodes de rééchantillonnage comme l’apprentissage/validation ou la validation croisée, qui permettent d’établir une comparaison entre toutes ces méthodes. La quatrième partie se concentre sur les modèles linéaires généralisés et plus particulièrement sur les régressions logistique et de Poisson avec ou sans technique de régularisation. Une section particulière est consacrée aux comparaisons de méthodes en classification supervisée. Elle introduit notamment des critères de performance pour scorer des individus comme les courbes ROC et lift et propose des stratégies de choix seuil (Younden, macro F1.) pour les classer. Ces notions sont ensuite mises en œuvre sur des données réelles afin de sélectionner une méthode de prévision parmi plusieurs algorithmes basés sur des modèles logistiques (régularisés ou non). Une dernière section aborde le problème des données déséquilibrées qui est souvent rencontré en régression binaire. Enfin, la dernière partie présente l’approche non paramétrique à travers les splines, les estimateurs à noyau et des plus proches voisins. La présentation témoigne d’un réel souci pédagogique des auteurs qui bénéficient d’une expérience d’enseignement auprès de publics très variés. Les résultats exposés sont replacés dans la perspective de leur utilité pratique grâce à l’analyse d’exemples concrets. Les commandes permettant le traitement des exemples sous R figurent dans le corps du texte. Enfin, chaque chapitre est complété par une suite d’exercices corrigés. Les codes, les données et les corrections des exercices se trouvent sur le site https://regression-avec-r.github.io/ Cet ouvrage s’adresse principalement à des étudiants de Master et d’écoles d’ingénieurs ainsi qu’aux chercheurs travaillant dans les divers domaines des sciences appliquées
Mode of access: Internet via World Wide Web.
In French.
Description based on online resource; title from PDF title page (publisher's Web site, viewed 29. Mai 2023)
Title is part of eBook package: De Gruyter DG Plus PP Package 2023 Part 2 9783111178042
https://www.degruyter.com/isbn/9782759831463
Cover https://www.degruyter.com/document/cover/isbn/9782759831463/original
language French
format eBook
title Régression avec R : 3ème édition.
spellingShingle Régression avec R : 3ème édition.
Frontmatter --
REMERCIEMENTS --
AVANT-PROPOS --
Table des matières --
Première partie Introduction au modèle linéaire --
Chapitre 1 La régression linéaire simple --
Chapitre 2 La régression linéaire multiple --
Chapitre 3 Validation du modèle --
Chapitre 4 Extensions : non-inversibilité et (ou) erreurs corrélées --
Deuxième partie Inférence --
Chapitre 5 Inférence dans le modèle gaussien --
Chapitre 6 Variables qualitatives : ANCOVA et ANOVA --
Troisième partie Réduction de dimension --
Chapitre 7 Choix de variables --
Chapitre 8 Régularisation des moindres carrés : ridge, lasso, elastic-net --
Chapitre 9 Régression sur composantes : PCR et PLS --
Chapitre 10 Comparaison des différentes méthodes, étude de cas réels --
Quatrième partie Le modèle linéaire généralisé --
Chapitre 11 Régression logistique --
Chapitre 12 Régression de Poisson --
Chapitre 13 Régularisation de la vraisemblance --
Chapitre 14 Comparaison des différentes méthodes en classification supervisée, études de cas réel --
Chapitre 15 Données déséquilibrées --
Cinquième partie Introduction à la régression non paramétrique --
Chapitre 16 Introduction à la régression spline --
Chapitre 17 Estimateurs à noyau et k plus proches voisins --
Annexe A Rappels --
Bibliographie --
Index --
Notations --
Fonctions et packages R
title_sub 3ème édition.
title_full Régression avec R : 3ème édition.
title_fullStr Régression avec R : 3ème édition.
title_full_unstemmed Régression avec R : 3ème édition.
title_auth Régression avec R : 3ème édition.
title_alt Frontmatter --
REMERCIEMENTS --
AVANT-PROPOS --
Table des matières --
Première partie Introduction au modèle linéaire --
Chapitre 1 La régression linéaire simple --
Chapitre 2 La régression linéaire multiple --
Chapitre 3 Validation du modèle --
Chapitre 4 Extensions : non-inversibilité et (ou) erreurs corrélées --
Deuxième partie Inférence --
Chapitre 5 Inférence dans le modèle gaussien --
Chapitre 6 Variables qualitatives : ANCOVA et ANOVA --
Troisième partie Réduction de dimension --
Chapitre 7 Choix de variables --
Chapitre 8 Régularisation des moindres carrés : ridge, lasso, elastic-net --
Chapitre 9 Régression sur composantes : PCR et PLS --
Chapitre 10 Comparaison des différentes méthodes, étude de cas réels --
Quatrième partie Le modèle linéaire généralisé --
Chapitre 11 Régression logistique --
Chapitre 12 Régression de Poisson --
Chapitre 13 Régularisation de la vraisemblance --
Chapitre 14 Comparaison des différentes méthodes en classification supervisée, études de cas réel --
Chapitre 15 Données déséquilibrées --
Cinquième partie Introduction à la régression non paramétrique --
Chapitre 16 Introduction à la régression spline --
Chapitre 17 Estimateurs à noyau et k plus proches voisins --
Annexe A Rappels --
Bibliographie --
Index --
Notations --
Fonctions et packages R
title_new Régression avec R :
title_sort régression avec r : 3ème édition.
publisher EDP Sciences,
publishDate 2023
physical 1 online resource (452 p.)
contents Frontmatter --
REMERCIEMENTS --
AVANT-PROPOS --
Table des matières --
Première partie Introduction au modèle linéaire --
Chapitre 1 La régression linéaire simple --
Chapitre 2 La régression linéaire multiple --
Chapitre 3 Validation du modèle --
Chapitre 4 Extensions : non-inversibilité et (ou) erreurs corrélées --
Deuxième partie Inférence --
Chapitre 5 Inférence dans le modèle gaussien --
Chapitre 6 Variables qualitatives : ANCOVA et ANOVA --
Troisième partie Réduction de dimension --
Chapitre 7 Choix de variables --
Chapitre 8 Régularisation des moindres carrés : ridge, lasso, elastic-net --
Chapitre 9 Régression sur composantes : PCR et PLS --
Chapitre 10 Comparaison des différentes méthodes, étude de cas réels --
Quatrième partie Le modèle linéaire généralisé --
Chapitre 11 Régression logistique --
Chapitre 12 Régression de Poisson --
Chapitre 13 Régularisation de la vraisemblance --
Chapitre 14 Comparaison des différentes méthodes en classification supervisée, études de cas réel --
Chapitre 15 Données déséquilibrées --
Cinquième partie Introduction à la régression non paramétrique --
Chapitre 16 Introduction à la régression spline --
Chapitre 17 Estimateurs à noyau et k plus proches voisins --
Annexe A Rappels --
Bibliographie --
Index --
Notations --
Fonctions et packages R
isbn 9782759831463
9783111178042
url https://www.degruyter.com/isbn/9782759831463
https://www.degruyter.com/document/cover/isbn/9782759831463/original
illustrated Not Illustrated
status_str n
ids_txt_mv (DE-B1597)653134
carrierType_str_mv cr
hierarchy_parent_title Title is part of eBook package: De Gruyter DG Plus PP Package 2023 Part 2
is_hierarchy_title Régression avec R : 3ème édition.
container_title Title is part of eBook package: De Gruyter DG Plus PP Package 2023 Part 2
_version_ 1770177354557030400
fullrecord <?xml version="1.0" encoding="UTF-8"?><collection xmlns="http://www.loc.gov/MARC21/slim"><record><leader>05843nam a22004215i 4500</leader><controlfield tag="001">9782759831463</controlfield><controlfield tag="003">DE-B1597</controlfield><controlfield tag="005">20230529101353.0</controlfield><controlfield tag="006">m|||||o||d||||||||</controlfield><controlfield tag="007">cr || ||||||||</controlfield><controlfield tag="008">230529t20232023fr fo d z fre d</controlfield><datafield tag="020" ind1=" " ind2=" "><subfield code="a">9782759831463</subfield></datafield><datafield tag="035" ind1=" " ind2=" "><subfield code="a">(DE-B1597)653134</subfield></datafield><datafield tag="040" ind1=" " ind2=" "><subfield code="a">DE-B1597</subfield><subfield code="b">eng</subfield><subfield code="c">DE-B1597</subfield><subfield code="e">rda</subfield></datafield><datafield tag="041" ind1="0" ind2=" "><subfield code="a">fre</subfield></datafield><datafield tag="044" ind1=" " ind2=" "><subfield code="a">fr</subfield><subfield code="c">FR</subfield></datafield><datafield tag="245" ind1="0" ind2="0"><subfield code="a">Régression avec R :</subfield><subfield code="b">3ème édition.</subfield></datafield><datafield tag="264" ind1=" " ind2="1"><subfield code="a">Les Ulis : </subfield><subfield code="b">EDP Sciences, </subfield><subfield code="c">[2023]</subfield></datafield><datafield tag="264" ind1=" " ind2="4"><subfield code="c">©2023</subfield></datafield><datafield tag="300" ind1=" " ind2=" "><subfield code="a">1 online resource (452 p.)</subfield></datafield><datafield tag="336" ind1=" " ind2=" "><subfield code="a">text</subfield><subfield code="b">txt</subfield><subfield code="2">rdacontent</subfield></datafield><datafield tag="337" ind1=" " ind2=" "><subfield code="a">computer</subfield><subfield code="b">c</subfield><subfield code="2">rdamedia</subfield></datafield><datafield tag="338" ind1=" " ind2=" "><subfield code="a">online resource</subfield><subfield code="b">cr</subfield><subfield code="2">rdacarrier</subfield></datafield><datafield tag="347" ind1=" " ind2=" "><subfield code="a">text file</subfield><subfield code="b">PDF</subfield><subfield code="2">rda</subfield></datafield><datafield tag="505" ind1="0" ind2="0"><subfield code="t">Frontmatter -- </subfield><subfield code="t">REMERCIEMENTS -- </subfield><subfield code="t">AVANT-PROPOS -- </subfield><subfield code="t">Table des matières -- </subfield><subfield code="t">Première partie Introduction au modèle linéaire -- </subfield><subfield code="t">Chapitre 1 La régression linéaire simple -- </subfield><subfield code="t">Chapitre 2 La régression linéaire multiple -- </subfield><subfield code="t">Chapitre 3 Validation du modèle -- </subfield><subfield code="t">Chapitre 4 Extensions : non-inversibilité et (ou) erreurs corrélées -- </subfield><subfield code="t">Deuxième partie Inférence -- </subfield><subfield code="t">Chapitre 5 Inférence dans le modèle gaussien -- </subfield><subfield code="t">Chapitre 6 Variables qualitatives : ANCOVA et ANOVA -- </subfield><subfield code="t">Troisième partie Réduction de dimension -- </subfield><subfield code="t">Chapitre 7 Choix de variables -- </subfield><subfield code="t">Chapitre 8 Régularisation des moindres carrés : ridge, lasso, elastic-net -- </subfield><subfield code="t">Chapitre 9 Régression sur composantes : PCR et PLS -- </subfield><subfield code="t">Chapitre 10 Comparaison des différentes méthodes, étude de cas réels -- </subfield><subfield code="t">Quatrième partie Le modèle linéaire généralisé -- </subfield><subfield code="t">Chapitre 11 Régression logistique -- </subfield><subfield code="t">Chapitre 12 Régression de Poisson -- </subfield><subfield code="t">Chapitre 13 Régularisation de la vraisemblance -- </subfield><subfield code="t">Chapitre 14 Comparaison des différentes méthodes en classification supervisée, études de cas réel -- </subfield><subfield code="t">Chapitre 15 Données déséquilibrées -- </subfield><subfield code="t">Cinquième partie Introduction à la régression non paramétrique -- </subfield><subfield code="t">Chapitre 16 Introduction à la régression spline -- </subfield><subfield code="t">Chapitre 17 Estimateurs à noyau et k plus proches voisins -- </subfield><subfield code="t">Annexe A Rappels -- </subfield><subfield code="t">Bibliographie -- </subfield><subfield code="t">Index -- </subfield><subfield code="t">Notations -- </subfield><subfield code="t">Fonctions et packages R</subfield></datafield><datafield tag="506" ind1="0" ind2=" "><subfield code="a">restricted access</subfield><subfield code="u">http://purl.org/coar/access_right/c_16ec</subfield><subfield code="f">online access with authorization</subfield><subfield code="2">star</subfield></datafield><datafield tag="520" ind1=" " ind2=" "><subfield code="a">Cet ouvrage expose de manière détaillée, exemples à l’appui, différentes façons de répondre à un des problèmes statistiques les plus courants : la régression. Cette nouvelle édition se décompose en cinq parties. La première donne les grands principes des régressions simple et multiple par moindres carrés. Les fondamentaux de la méthode, tant au niveau des choix opérés que des hypothèses et leur utilité, sont expliqués. La deuxième partie est consacrée à l’inférence et présente les outils permettant de vérifier les hypothèses mises en œuvre. Les techniques d’analyse de la variance et de la covariance sont également présentées dans cette partie. Le cas de la grande dimension est ensuite abordé dans la troisième partie. Différentes méthodes de réduction de la dimension telles que la sélection de variables, les régressions sous contraintes (lasso, elasticnet ou ridge) et sur composantes (PLS ou PCR) sont notamment proposées. Un dernier chapitre propose des algorithmes, basés sur des méthodes de rééchantillonnage comme l’apprentissage/validation ou la validation croisée, qui permettent d’établir une comparaison entre toutes ces méthodes. La quatrième partie se concentre sur les modèles linéaires généralisés et plus particulièrement sur les régressions logistique et de Poisson avec ou sans technique de régularisation. Une section particulière est consacrée aux comparaisons de méthodes en classification supervisée. Elle introduit notamment des critères de performance pour scorer des individus comme les courbes ROC et lift et propose des stratégies de choix seuil (Younden, macro F1.) pour les classer. Ces notions sont ensuite mises en œuvre sur des données réelles afin de sélectionner une méthode de prévision parmi plusieurs algorithmes basés sur des modèles logistiques (régularisés ou non). Une dernière section aborde le problème des données déséquilibrées qui est souvent rencontré en régression binaire. Enfin, la dernière partie présente l’approche non paramétrique à travers les splines, les estimateurs à noyau et des plus proches voisins. La présentation témoigne d’un réel souci pédagogique des auteurs qui bénéficient d’une expérience d’enseignement auprès de publics très variés. Les résultats exposés sont replacés dans la perspective de leur utilité pratique grâce à l’analyse d’exemples concrets. Les commandes permettant le traitement des exemples sous R figurent dans le corps du texte. Enfin, chaque chapitre est complété par une suite d’exercices corrigés. Les codes, les données et les corrections des exercices se trouvent sur le site https://regression-avec-r.github.io/ Cet ouvrage s’adresse principalement à des étudiants de Master et d’écoles d’ingénieurs ainsi qu’aux chercheurs travaillant dans les divers domaines des sciences appliquées</subfield></datafield><datafield tag="538" ind1=" " ind2=" "><subfield code="a">Mode of access: Internet via World Wide Web.</subfield></datafield><datafield tag="546" ind1=" " ind2=" "><subfield code="a">In French.</subfield></datafield><datafield tag="588" ind1="0" ind2=" "><subfield code="a">Description based on online resource; title from PDF title page (publisher's Web site, viewed 29. Mai 2023)</subfield></datafield><datafield tag="773" ind1="0" ind2="8"><subfield code="i">Title is part of eBook package:</subfield><subfield code="d">De Gruyter</subfield><subfield code="t">DG Plus PP Package 2023 Part 2</subfield><subfield code="z">9783111178042</subfield></datafield><datafield tag="856" ind1="4" ind2="0"><subfield code="u">https://www.degruyter.com/isbn/9782759831463</subfield></datafield><datafield tag="856" ind1="4" ind2="2"><subfield code="3">Cover</subfield><subfield code="u">https://www.degruyter.com/document/cover/isbn/9782759831463/original</subfield></datafield><datafield tag="912" ind1=" " ind2=" "><subfield code="a">978-3-11-117804-2 DG Plus PP Package 2023 Part 2</subfield><subfield code="b">2023</subfield></datafield><datafield tag="912" ind1=" " ind2=" "><subfield code="a">EBA_EBKALL</subfield></datafield><datafield tag="912" ind1=" " ind2=" "><subfield code="a">EBA_PPALL</subfield></datafield><datafield tag="912" ind1=" " ind2=" "><subfield code="a">GBV-deGruyter-alles</subfield></datafield><datafield tag="912" ind1=" " ind2=" "><subfield code="a">PDA5EBK</subfield></datafield></record></collection>