Methoden des bestärkenden Lernens für die Produktionsablaufplanung / von Sebastian Lang.

In diesem Open-Access-Buch wird eine Methode zur Adaption, Integration und Anwendung von bestärkenden Lernverfahren (Reinforcement Learning) für die Produktionsablaufplanung beschrieben. Die Methode wird anhand von typischen Problemstellungen der Produktionsablaufplanung hergeleitet und evaluiert. D...

Full description

Saved in:
Bibliographic Details
VerfasserIn:
Place / Publishing House:Wiesbaden : : Springer Fachmedien Wiesbaden :, Imprint: Springer Vieweg,, 2023.
Year of Publication:2023
Edition:1st ed. 2023.
Language:German
Physical Description:1 online resource (XXXIII, 286 S. 62 Abb., 42 Abb. in Farbe.)
Tags: Add Tag
No Tags, Be the first to tag this record!
id 993615395404498
ctrlnum (CKB)5720000000232550
(DE-He213)978-3-658-41751-2
(MiAaPQ)EBC30605736
(Au-PeEL)EBL30605736
(PPN)272273767
(EXLCZ)995720000000232550
collection bib_alma
record_format marc
spelling Lang, Sebastian. author. aut http://id.loc.gov/vocabulary/relators/aut
Methoden des bestärkenden Lernens für die Produktionsablaufplanung [electronic resource] / von Sebastian Lang.
1st ed. 2023.
Wiesbaden : Springer Fachmedien Wiesbaden : Imprint: Springer Vieweg, 2023.
1 online resource (XXXIII, 286 S. 62 Abb., 42 Abb. in Farbe.)
text txt rdacontent
computer c rdamedia
online resource cr rdacarrier
In diesem Open-Access-Buch wird eine Methode zur Adaption, Integration und Anwendung von bestärkenden Lernverfahren (Reinforcement Learning) für die Produktionsablaufplanung beschrieben. Die Methode wird anhand von typischen Problemstellungen der Produktionsablaufplanung hergeleitet und evaluiert. Die Produktionsablaufplanung ist eine Kernaufgabe der Produktion und Logistik, bei welcher Aufträge auf Ressourcen so verteilt und in Reihenfolge gebracht werden müssen, dass geforderte Nebenbedingungen der Planung erfüllt werden. Entsprechende Optimierungsprobleme sind meist NP-schwer, wodurch eine optimale Lösung gewöhnlich nicht unter wirtschaftlichen Bedingungen erzielbar ist. In der Industrie werden stattdessen Prioritätsregeln, Heuristiken oder Metaheuristiken verwendet, die entweder zeiteffizient zu Lasten der Lösungsgüte rechnen oder qualitativ hochwertige Lösungen unter hohem Rechenaufwand erzeugen. Das bestärkende Lernen ist eine Unterart des maschinellen Lernens und eine weitere Klasse potenzieller Lösungsstrategien. Probleme der Produktionsablaufplanung sind insoweit vergleichbar, als dass sie sich ebenfalls als stufenartige Entscheidungsketten modellieren lassen. Trotz ihrer Vorteile existiert bisher kaum allgemeines Wissen hinsichtlich der Anwendung des bestärkenden Lernens für die Produktionsablaufplanung. Der Autor Sebastian Lang ist als wissenschaftlicher Mitarbeiter am Fraunhofer-Institut für Fabrikbetrieb und -automatisierung IFF in Magdeburg tätig. .
Open Access
Intro -- Danksagung -- Kurzfassung -- Inhaltsverzeichnis -- Abbildungsverzeichnis -- Tabellenverzeichnis -- Abkürzungsverzeichnis -- Mathematische Notation -- Für Probleme der Produktionsablaufplanung -- Für gradientenabhängiges bestärkendes Lernen -- Für gradientenfreies bestärkendes Lernen -- Statistische Kenngrößen -- 1 Einleitung -- 1.1 Motivation und Problemstellung -- 1.2 Zielstellung der Arbeit und Forschungsfragen -- 1.3 Forschungsmethodik und Aufbau der Arbeit -- 2 Grundlagen der Produktionsablaufplanung -- 2.1 Begriffsbestimmung und thematische Abgrenzung -- 2.2 Prozess der Produktionsablaufplanung -- 2.3 Mathematische Optimierung der Produktionsablaufplanung -- 2.3.1 Mathematische Formalisierung -- 2.3.2 Modellbildung -- 2.3.3 Konventionelle Lösungsverfahren -- 3 Grundlagen des Bestärkenden Lernens -- 3.1 Einordnung in die künstliche Intelligenz und in das maschinelle Lernen -- 3.1.1 Überwachtes Lernen als angrenzendes Paradigma -- 3.1.2 Unüberwachten Lernens als angrenzendes Paradigma -- 3.2 Grundprinzip und Taxonomie des bestärkenden Lernens -- 3.3 Gradientenabhängiges bestärkendes Lernen -- 3.3.1 Markov-Entscheidungsproblem -- 3.3.2 Nutzenfunktion -- 3.3.3 Aktionsnutzen-bewertende Verfahren -- 3.3.4 Entscheidungspolitik-approximierende Verfahren -- 3.3.5 Actor-Critic-Verfahren -- 3.4 Gradientenfreies bestärkendes Lernen -- 3.4.1 Modellsuchende und parameteroptimierende Verfahren -- 3.4.2 Hybride Verfahren - NeuroEvolution of Augmenting Topologies -- 4 Stand der Wissenschaft und Technik: Bestärkendes Lernen in der Produktionsablaufplanung -- 4.1 Gradientenabhängige Verfahren für die Produktionsablaufplanung -- 4.1.1 Agentenbasierte Auswahl von Prioritätsregeln -- 4.1.2 Agentenbasierte Ressourcenbelegungsplanung -- 4.1.3 Agentenbasierte Reihenfolgeplanung -- 4.1.4 Agentenbasierte Losbildung.
4.1.5 Agentenbasiertes Reparieren von ungültigen Ablaufplänen -- 4.2 Gradientenfreie Verfahren für die Ablaufplanung im Allgemeinen -- 4.2.1 Einsatz der Kreuzentropie-Methode in der Ablaufplanung -- 4.2.2 Einsatz von Bayes'scher Optimierung in der Ablaufplanung -- 4.2.3 Einsatz von Neuro-Evolution in der Ablaufplanung -- 4.3 Zusammenfassung und Diskussion der Forschungslücke -- 5 Eine Methode zum Einsatz von bestärkenden Lernverfahren für die Produktionsablaufplanung -- 5.1 Ausgangssituation, Problemstellung und Anforderungsdefinition -- 5.2 Von der Produktionsablaufplanung zur agentenbasierten Produktionsablaufsteuerung - Prozessmodell und Funktionsprinzip -- 5.2.1 Agentenbasierte Ressourcenbelegungsplanung -- 5.2.2 Agentenbasierte Reihenfolgeplanung und Losbildung -- 5.3 Projektierung und Entwicklung von agentenbasierten Produktionsablaufsteuerungen -- 5.3.1 Entwurf von Agentenumgebungen -- 5.3.2 Definition von maschinellen Lernaufgaben und Gestaltung von Agenten -- 5.3.3 Integration und Inbetriebnahme von Agenten und Agentenumgebungen -- 5.3.4 Auswahl und Implementierung von bestärkenden Lernverfahren -- 5.3.5 Gestaltung von Belohnungsfunktionen -- 5.3.6 Training von Agenten -- 5.4 Zusammenfassung der Methode -- 6 Evaluation der entwickelten Methode -- 6.1 Flexible-Job-Shop-Problem mit flexibler Operationsplanung -- 6.1.1 Problembeschreibung -- 6.1.2 Anwendung des DQN-Algorithmus zur Lösung des Problems -- 6.1.3 Diskussion der Ergebnisse -- 6.1.4 Erweiterung des Problems um einen dynamischen Auftragshorizont -- 6.2 Dynamisches Parallel-Maschinen-Problem mit familienabhängigen Rüstzeiten und ressourcenabhängigen Bearbeitungsgeschwindigkeiten -- 6.2.1 Problembeschreibung -- 6.2.2 Anwendung des PPO-Algorithmus zur Lösung des Problems -- 6.2.3 Diskussion der Ergebnisse -- 6.3 Zweistufiges Hybrid-Flow-Shop-Problem mit familienabhängigen Rüstzeiten.
6.3.1 Problembeschreibung -- 6.3.2 Anwendung des A2C-Algorithmus zur Lösung des Problems -- 6.3.3 Anwendung des NEAT-Algorithmus zur Lösung des Problems -- 6.3.4 Vergleich mit anderen Lösungsverfahren -- 7 Schlussbetrachtung -- 7.1 Zusammenfassung und Diskussion -- 7.2 Ausblick -- Literaturverzeichnis.
Machine learning.
Manufactures.
Industrial engineering.
Production engineering.
Machine Learning.
Machines, Tools, Processes.
Industrial and Production Engineering.
3-658-41750-1
language German
format Electronic
eBook
author Lang, Sebastian.
Lang, Sebastian.
spellingShingle Lang, Sebastian.
Lang, Sebastian.
Methoden des bestärkenden Lernens für die Produktionsablaufplanung
Intro -- Danksagung -- Kurzfassung -- Inhaltsverzeichnis -- Abbildungsverzeichnis -- Tabellenverzeichnis -- Abkürzungsverzeichnis -- Mathematische Notation -- Für Probleme der Produktionsablaufplanung -- Für gradientenabhängiges bestärkendes Lernen -- Für gradientenfreies bestärkendes Lernen -- Statistische Kenngrößen -- 1 Einleitung -- 1.1 Motivation und Problemstellung -- 1.2 Zielstellung der Arbeit und Forschungsfragen -- 1.3 Forschungsmethodik und Aufbau der Arbeit -- 2 Grundlagen der Produktionsablaufplanung -- 2.1 Begriffsbestimmung und thematische Abgrenzung -- 2.2 Prozess der Produktionsablaufplanung -- 2.3 Mathematische Optimierung der Produktionsablaufplanung -- 2.3.1 Mathematische Formalisierung -- 2.3.2 Modellbildung -- 2.3.3 Konventionelle Lösungsverfahren -- 3 Grundlagen des Bestärkenden Lernens -- 3.1 Einordnung in die künstliche Intelligenz und in das maschinelle Lernen -- 3.1.1 Überwachtes Lernen als angrenzendes Paradigma -- 3.1.2 Unüberwachten Lernens als angrenzendes Paradigma -- 3.2 Grundprinzip und Taxonomie des bestärkenden Lernens -- 3.3 Gradientenabhängiges bestärkendes Lernen -- 3.3.1 Markov-Entscheidungsproblem -- 3.3.2 Nutzenfunktion -- 3.3.3 Aktionsnutzen-bewertende Verfahren -- 3.3.4 Entscheidungspolitik-approximierende Verfahren -- 3.3.5 Actor-Critic-Verfahren -- 3.4 Gradientenfreies bestärkendes Lernen -- 3.4.1 Modellsuchende und parameteroptimierende Verfahren -- 3.4.2 Hybride Verfahren - NeuroEvolution of Augmenting Topologies -- 4 Stand der Wissenschaft und Technik: Bestärkendes Lernen in der Produktionsablaufplanung -- 4.1 Gradientenabhängige Verfahren für die Produktionsablaufplanung -- 4.1.1 Agentenbasierte Auswahl von Prioritätsregeln -- 4.1.2 Agentenbasierte Ressourcenbelegungsplanung -- 4.1.3 Agentenbasierte Reihenfolgeplanung -- 4.1.4 Agentenbasierte Losbildung.
4.1.5 Agentenbasiertes Reparieren von ungültigen Ablaufplänen -- 4.2 Gradientenfreie Verfahren für die Ablaufplanung im Allgemeinen -- 4.2.1 Einsatz der Kreuzentropie-Methode in der Ablaufplanung -- 4.2.2 Einsatz von Bayes'scher Optimierung in der Ablaufplanung -- 4.2.3 Einsatz von Neuro-Evolution in der Ablaufplanung -- 4.3 Zusammenfassung und Diskussion der Forschungslücke -- 5 Eine Methode zum Einsatz von bestärkenden Lernverfahren für die Produktionsablaufplanung -- 5.1 Ausgangssituation, Problemstellung und Anforderungsdefinition -- 5.2 Von der Produktionsablaufplanung zur agentenbasierten Produktionsablaufsteuerung - Prozessmodell und Funktionsprinzip -- 5.2.1 Agentenbasierte Ressourcenbelegungsplanung -- 5.2.2 Agentenbasierte Reihenfolgeplanung und Losbildung -- 5.3 Projektierung und Entwicklung von agentenbasierten Produktionsablaufsteuerungen -- 5.3.1 Entwurf von Agentenumgebungen -- 5.3.2 Definition von maschinellen Lernaufgaben und Gestaltung von Agenten -- 5.3.3 Integration und Inbetriebnahme von Agenten und Agentenumgebungen -- 5.3.4 Auswahl und Implementierung von bestärkenden Lernverfahren -- 5.3.5 Gestaltung von Belohnungsfunktionen -- 5.3.6 Training von Agenten -- 5.4 Zusammenfassung der Methode -- 6 Evaluation der entwickelten Methode -- 6.1 Flexible-Job-Shop-Problem mit flexibler Operationsplanung -- 6.1.1 Problembeschreibung -- 6.1.2 Anwendung des DQN-Algorithmus zur Lösung des Problems -- 6.1.3 Diskussion der Ergebnisse -- 6.1.4 Erweiterung des Problems um einen dynamischen Auftragshorizont -- 6.2 Dynamisches Parallel-Maschinen-Problem mit familienabhängigen Rüstzeiten und ressourcenabhängigen Bearbeitungsgeschwindigkeiten -- 6.2.1 Problembeschreibung -- 6.2.2 Anwendung des PPO-Algorithmus zur Lösung des Problems -- 6.2.3 Diskussion der Ergebnisse -- 6.3 Zweistufiges Hybrid-Flow-Shop-Problem mit familienabhängigen Rüstzeiten.
6.3.1 Problembeschreibung -- 6.3.2 Anwendung des A2C-Algorithmus zur Lösung des Problems -- 6.3.3 Anwendung des NEAT-Algorithmus zur Lösung des Problems -- 6.3.4 Vergleich mit anderen Lösungsverfahren -- 7 Schlussbetrachtung -- 7.1 Zusammenfassung und Diskussion -- 7.2 Ausblick -- Literaturverzeichnis.
author_facet Lang, Sebastian.
Lang, Sebastian.
author_variant s l sl
s l sl
author_role VerfasserIn
VerfasserIn
author_sort Lang, Sebastian.
title Methoden des bestärkenden Lernens für die Produktionsablaufplanung
title_full Methoden des bestärkenden Lernens für die Produktionsablaufplanung [electronic resource] / von Sebastian Lang.
title_fullStr Methoden des bestärkenden Lernens für die Produktionsablaufplanung [electronic resource] / von Sebastian Lang.
title_full_unstemmed Methoden des bestärkenden Lernens für die Produktionsablaufplanung [electronic resource] / von Sebastian Lang.
title_auth Methoden des bestärkenden Lernens für die Produktionsablaufplanung
title_new Methoden des bestärkenden Lernens für die Produktionsablaufplanung
title_sort methoden des bestärkenden lernens für die produktionsablaufplanung
publisher Springer Fachmedien Wiesbaden : Imprint: Springer Vieweg,
publishDate 2023
physical 1 online resource (XXXIII, 286 S. 62 Abb., 42 Abb. in Farbe.)
edition 1st ed. 2023.
contents Intro -- Danksagung -- Kurzfassung -- Inhaltsverzeichnis -- Abbildungsverzeichnis -- Tabellenverzeichnis -- Abkürzungsverzeichnis -- Mathematische Notation -- Für Probleme der Produktionsablaufplanung -- Für gradientenabhängiges bestärkendes Lernen -- Für gradientenfreies bestärkendes Lernen -- Statistische Kenngrößen -- 1 Einleitung -- 1.1 Motivation und Problemstellung -- 1.2 Zielstellung der Arbeit und Forschungsfragen -- 1.3 Forschungsmethodik und Aufbau der Arbeit -- 2 Grundlagen der Produktionsablaufplanung -- 2.1 Begriffsbestimmung und thematische Abgrenzung -- 2.2 Prozess der Produktionsablaufplanung -- 2.3 Mathematische Optimierung der Produktionsablaufplanung -- 2.3.1 Mathematische Formalisierung -- 2.3.2 Modellbildung -- 2.3.3 Konventionelle Lösungsverfahren -- 3 Grundlagen des Bestärkenden Lernens -- 3.1 Einordnung in die künstliche Intelligenz und in das maschinelle Lernen -- 3.1.1 Überwachtes Lernen als angrenzendes Paradigma -- 3.1.2 Unüberwachten Lernens als angrenzendes Paradigma -- 3.2 Grundprinzip und Taxonomie des bestärkenden Lernens -- 3.3 Gradientenabhängiges bestärkendes Lernen -- 3.3.1 Markov-Entscheidungsproblem -- 3.3.2 Nutzenfunktion -- 3.3.3 Aktionsnutzen-bewertende Verfahren -- 3.3.4 Entscheidungspolitik-approximierende Verfahren -- 3.3.5 Actor-Critic-Verfahren -- 3.4 Gradientenfreies bestärkendes Lernen -- 3.4.1 Modellsuchende und parameteroptimierende Verfahren -- 3.4.2 Hybride Verfahren - NeuroEvolution of Augmenting Topologies -- 4 Stand der Wissenschaft und Technik: Bestärkendes Lernen in der Produktionsablaufplanung -- 4.1 Gradientenabhängige Verfahren für die Produktionsablaufplanung -- 4.1.1 Agentenbasierte Auswahl von Prioritätsregeln -- 4.1.2 Agentenbasierte Ressourcenbelegungsplanung -- 4.1.3 Agentenbasierte Reihenfolgeplanung -- 4.1.4 Agentenbasierte Losbildung.
4.1.5 Agentenbasiertes Reparieren von ungültigen Ablaufplänen -- 4.2 Gradientenfreie Verfahren für die Ablaufplanung im Allgemeinen -- 4.2.1 Einsatz der Kreuzentropie-Methode in der Ablaufplanung -- 4.2.2 Einsatz von Bayes'scher Optimierung in der Ablaufplanung -- 4.2.3 Einsatz von Neuro-Evolution in der Ablaufplanung -- 4.3 Zusammenfassung und Diskussion der Forschungslücke -- 5 Eine Methode zum Einsatz von bestärkenden Lernverfahren für die Produktionsablaufplanung -- 5.1 Ausgangssituation, Problemstellung und Anforderungsdefinition -- 5.2 Von der Produktionsablaufplanung zur agentenbasierten Produktionsablaufsteuerung - Prozessmodell und Funktionsprinzip -- 5.2.1 Agentenbasierte Ressourcenbelegungsplanung -- 5.2.2 Agentenbasierte Reihenfolgeplanung und Losbildung -- 5.3 Projektierung und Entwicklung von agentenbasierten Produktionsablaufsteuerungen -- 5.3.1 Entwurf von Agentenumgebungen -- 5.3.2 Definition von maschinellen Lernaufgaben und Gestaltung von Agenten -- 5.3.3 Integration und Inbetriebnahme von Agenten und Agentenumgebungen -- 5.3.4 Auswahl und Implementierung von bestärkenden Lernverfahren -- 5.3.5 Gestaltung von Belohnungsfunktionen -- 5.3.6 Training von Agenten -- 5.4 Zusammenfassung der Methode -- 6 Evaluation der entwickelten Methode -- 6.1 Flexible-Job-Shop-Problem mit flexibler Operationsplanung -- 6.1.1 Problembeschreibung -- 6.1.2 Anwendung des DQN-Algorithmus zur Lösung des Problems -- 6.1.3 Diskussion der Ergebnisse -- 6.1.4 Erweiterung des Problems um einen dynamischen Auftragshorizont -- 6.2 Dynamisches Parallel-Maschinen-Problem mit familienabhängigen Rüstzeiten und ressourcenabhängigen Bearbeitungsgeschwindigkeiten -- 6.2.1 Problembeschreibung -- 6.2.2 Anwendung des PPO-Algorithmus zur Lösung des Problems -- 6.2.3 Diskussion der Ergebnisse -- 6.3 Zweistufiges Hybrid-Flow-Shop-Problem mit familienabhängigen Rüstzeiten.
6.3.1 Problembeschreibung -- 6.3.2 Anwendung des A2C-Algorithmus zur Lösung des Problems -- 6.3.3 Anwendung des NEAT-Algorithmus zur Lösung des Problems -- 6.3.4 Vergleich mit anderen Lösungsverfahren -- 7 Schlussbetrachtung -- 7.1 Zusammenfassung und Diskussion -- 7.2 Ausblick -- Literaturverzeichnis.
isbn 3-658-41751-X
3-658-41750-1
callnumber-first Q - Science
callnumber-subject Q - General Science
callnumber-label Q325
callnumber-sort Q 3325.5 17
illustrated Not Illustrated
dewey-hundreds 000 - Computer science, information & general works
dewey-tens 000 - Computer science, knowledge & systems
dewey-ones 006 - Special computer methods
dewey-full 006.31
dewey-sort 16.31
dewey-raw 006.31
dewey-search 006.31
work_keys_str_mv AT langsebastian methodendesbestarkendenlernensfurdieproduktionsablaufplanung
status_str n
ids_txt_mv (CKB)5720000000232550
(DE-He213)978-3-658-41751-2
(MiAaPQ)EBC30605736
(Au-PeEL)EBL30605736
(PPN)272273767
(EXLCZ)995720000000232550
carrierType_str_mv cr
is_hierarchy_title Methoden des bestärkenden Lernens für die Produktionsablaufplanung
_version_ 1796653316376100865
fullrecord <?xml version="1.0" encoding="UTF-8"?><collection xmlns="http://www.loc.gov/MARC21/slim"><record><leader>03169nam a22004695i 4500</leader><controlfield tag="001">993615395404498</controlfield><controlfield tag="005">20230621203252.0</controlfield><controlfield tag="006">m o d | </controlfield><controlfield tag="007">cr nn 008mamaa</controlfield><controlfield tag="008">230621s2023 gw | o |||| 0|ger d</controlfield><datafield tag="020" ind1=" " ind2=" "><subfield code="a">3-658-41751-X</subfield></datafield><datafield tag="024" ind1="7" ind2=" "><subfield code="a">10.1007/978-3-658-41751-2</subfield><subfield code="2">doi</subfield></datafield><datafield tag="035" ind1=" " ind2=" "><subfield code="a">(CKB)5720000000232550</subfield></datafield><datafield tag="035" ind1=" " ind2=" "><subfield code="a">(DE-He213)978-3-658-41751-2</subfield></datafield><datafield tag="035" ind1=" " ind2=" "><subfield code="a">(MiAaPQ)EBC30605736</subfield></datafield><datafield tag="035" ind1=" " ind2=" "><subfield code="a">(Au-PeEL)EBL30605736</subfield></datafield><datafield tag="035" ind1=" " ind2=" "><subfield code="a">(PPN)272273767</subfield></datafield><datafield tag="035" ind1=" " ind2=" "><subfield code="a">(EXLCZ)995720000000232550</subfield></datafield><datafield tag="040" ind1=" " ind2=" "><subfield code="a">MiAaPQ</subfield><subfield code="b">eng</subfield><subfield code="e">rda</subfield><subfield code="e">pn</subfield><subfield code="c">MiAaPQ</subfield><subfield code="d">MiAaPQ</subfield></datafield><datafield tag="050" ind1=" " ind2="4"><subfield code="a">Q325.5-.7</subfield></datafield><datafield tag="072" ind1=" " ind2="7"><subfield code="a">UYQM</subfield><subfield code="2">bicssc</subfield></datafield><datafield tag="072" ind1=" " ind2="7"><subfield code="a">COM004000</subfield><subfield code="2">bisacsh</subfield></datafield><datafield tag="072" ind1=" " ind2="7"><subfield code="a">UYQM</subfield><subfield code="2">thema</subfield></datafield><datafield tag="082" ind1="0" ind2="4"><subfield code="a">006.31</subfield><subfield code="2">23</subfield></datafield><datafield tag="100" ind1="1" ind2=" "><subfield code="a">Lang, Sebastian.</subfield><subfield code="e">author.</subfield><subfield code="4">aut</subfield><subfield code="4">http://id.loc.gov/vocabulary/relators/aut</subfield></datafield><datafield tag="245" ind1="1" ind2="0"><subfield code="a">Methoden des bestärkenden Lernens für die Produktionsablaufplanung</subfield><subfield code="h">[electronic resource] /</subfield><subfield code="c">von Sebastian Lang.</subfield></datafield><datafield tag="250" ind1=" " ind2=" "><subfield code="a">1st ed. 2023.</subfield></datafield><datafield tag="264" ind1=" " ind2="1"><subfield code="a">Wiesbaden :</subfield><subfield code="b">Springer Fachmedien Wiesbaden :</subfield><subfield code="b">Imprint: Springer Vieweg,</subfield><subfield code="c">2023.</subfield></datafield><datafield tag="300" ind1=" " ind2=" "><subfield code="a">1 online resource (XXXIII, 286 S. 62 Abb., 42 Abb. in Farbe.) </subfield></datafield><datafield tag="336" ind1=" " ind2=" "><subfield code="a">text</subfield><subfield code="b">txt</subfield><subfield code="2">rdacontent</subfield></datafield><datafield tag="337" ind1=" " ind2=" "><subfield code="a">computer</subfield><subfield code="b">c</subfield><subfield code="2">rdamedia</subfield></datafield><datafield tag="338" ind1=" " ind2=" "><subfield code="a">online resource</subfield><subfield code="b">cr</subfield><subfield code="2">rdacarrier</subfield></datafield><datafield tag="520" ind1=" " ind2=" "><subfield code="a">In diesem Open-Access-Buch wird eine Methode zur Adaption, Integration und Anwendung von bestärkenden Lernverfahren (Reinforcement Learning) für die Produktionsablaufplanung beschrieben. Die Methode wird anhand von typischen Problemstellungen der Produktionsablaufplanung hergeleitet und evaluiert. Die Produktionsablaufplanung ist eine Kernaufgabe der Produktion und Logistik, bei welcher Aufträge auf Ressourcen so verteilt und in Reihenfolge gebracht werden müssen, dass geforderte Nebenbedingungen der Planung erfüllt werden. Entsprechende Optimierungsprobleme sind meist NP-schwer, wodurch eine optimale Lösung gewöhnlich nicht unter wirtschaftlichen Bedingungen erzielbar ist. In der Industrie werden stattdessen Prioritätsregeln, Heuristiken oder Metaheuristiken verwendet, die entweder zeiteffizient zu Lasten der Lösungsgüte rechnen oder qualitativ hochwertige Lösungen unter hohem Rechenaufwand erzeugen. Das bestärkende Lernen ist eine Unterart des maschinellen Lernens und eine weitere Klasse potenzieller Lösungsstrategien. Probleme der Produktionsablaufplanung sind insoweit vergleichbar, als dass sie sich ebenfalls als stufenartige Entscheidungsketten modellieren lassen. Trotz ihrer Vorteile existiert bisher kaum allgemeines Wissen hinsichtlich der Anwendung des bestärkenden Lernens für die Produktionsablaufplanung. Der Autor Sebastian Lang ist als wissenschaftlicher Mitarbeiter am Fraunhofer-Institut für Fabrikbetrieb und -automatisierung IFF in Magdeburg tätig. .</subfield></datafield><datafield tag="506" ind1="0" ind2=" "><subfield code="a">Open Access</subfield></datafield><datafield tag="505" ind1="0" ind2=" "><subfield code="a">Intro -- Danksagung -- Kurzfassung -- Inhaltsverzeichnis -- Abbildungsverzeichnis -- Tabellenverzeichnis -- Abkürzungsverzeichnis -- Mathematische Notation -- Für Probleme der Produktionsablaufplanung -- Für gradientenabhängiges bestärkendes Lernen -- Für gradientenfreies bestärkendes Lernen -- Statistische Kenngrößen -- 1 Einleitung -- 1.1 Motivation und Problemstellung -- 1.2 Zielstellung der Arbeit und Forschungsfragen -- 1.3 Forschungsmethodik und Aufbau der Arbeit -- 2 Grundlagen der Produktionsablaufplanung -- 2.1 Begriffsbestimmung und thematische Abgrenzung -- 2.2 Prozess der Produktionsablaufplanung -- 2.3 Mathematische Optimierung der Produktionsablaufplanung -- 2.3.1 Mathematische Formalisierung -- 2.3.2 Modellbildung -- 2.3.3 Konventionelle Lösungsverfahren -- 3 Grundlagen des Bestärkenden Lernens -- 3.1 Einordnung in die künstliche Intelligenz und in das maschinelle Lernen -- 3.1.1 Überwachtes Lernen als angrenzendes Paradigma -- 3.1.2 Unüberwachten Lernens als angrenzendes Paradigma -- 3.2 Grundprinzip und Taxonomie des bestärkenden Lernens -- 3.3 Gradientenabhängiges bestärkendes Lernen -- 3.3.1 Markov-Entscheidungsproblem -- 3.3.2 Nutzenfunktion -- 3.3.3 Aktionsnutzen-bewertende Verfahren -- 3.3.4 Entscheidungspolitik-approximierende Verfahren -- 3.3.5 Actor-Critic-Verfahren -- 3.4 Gradientenfreies bestärkendes Lernen -- 3.4.1 Modellsuchende und parameteroptimierende Verfahren -- 3.4.2 Hybride Verfahren - NeuroEvolution of Augmenting Topologies -- 4 Stand der Wissenschaft und Technik: Bestärkendes Lernen in der Produktionsablaufplanung -- 4.1 Gradientenabhängige Verfahren für die Produktionsablaufplanung -- 4.1.1 Agentenbasierte Auswahl von Prioritätsregeln -- 4.1.2 Agentenbasierte Ressourcenbelegungsplanung -- 4.1.3 Agentenbasierte Reihenfolgeplanung -- 4.1.4 Agentenbasierte Losbildung.</subfield></datafield><datafield tag="505" ind1="8" ind2=" "><subfield code="a">4.1.5 Agentenbasiertes Reparieren von ungültigen Ablaufplänen -- 4.2 Gradientenfreie Verfahren für die Ablaufplanung im Allgemeinen -- 4.2.1 Einsatz der Kreuzentropie-Methode in der Ablaufplanung -- 4.2.2 Einsatz von Bayes'scher Optimierung in der Ablaufplanung -- 4.2.3 Einsatz von Neuro-Evolution in der Ablaufplanung -- 4.3 Zusammenfassung und Diskussion der Forschungslücke -- 5 Eine Methode zum Einsatz von bestärkenden Lernverfahren für die Produktionsablaufplanung -- 5.1 Ausgangssituation, Problemstellung und Anforderungsdefinition -- 5.2 Von der Produktionsablaufplanung zur agentenbasierten Produktionsablaufsteuerung - Prozessmodell und Funktionsprinzip -- 5.2.1 Agentenbasierte Ressourcenbelegungsplanung -- 5.2.2 Agentenbasierte Reihenfolgeplanung und Losbildung -- 5.3 Projektierung und Entwicklung von agentenbasierten Produktionsablaufsteuerungen -- 5.3.1 Entwurf von Agentenumgebungen -- 5.3.2 Definition von maschinellen Lernaufgaben und Gestaltung von Agenten -- 5.3.3 Integration und Inbetriebnahme von Agenten und Agentenumgebungen -- 5.3.4 Auswahl und Implementierung von bestärkenden Lernverfahren -- 5.3.5 Gestaltung von Belohnungsfunktionen -- 5.3.6 Training von Agenten -- 5.4 Zusammenfassung der Methode -- 6 Evaluation der entwickelten Methode -- 6.1 Flexible-Job-Shop-Problem mit flexibler Operationsplanung -- 6.1.1 Problembeschreibung -- 6.1.2 Anwendung des DQN-Algorithmus zur Lösung des Problems -- 6.1.3 Diskussion der Ergebnisse -- 6.1.4 Erweiterung des Problems um einen dynamischen Auftragshorizont -- 6.2 Dynamisches Parallel-Maschinen-Problem mit familienabhängigen Rüstzeiten und ressourcenabhängigen Bearbeitungsgeschwindigkeiten -- 6.2.1 Problembeschreibung -- 6.2.2 Anwendung des PPO-Algorithmus zur Lösung des Problems -- 6.2.3 Diskussion der Ergebnisse -- 6.3 Zweistufiges Hybrid-Flow-Shop-Problem mit familienabhängigen Rüstzeiten.</subfield></datafield><datafield tag="505" ind1="8" ind2=" "><subfield code="a">6.3.1 Problembeschreibung -- 6.3.2 Anwendung des A2C-Algorithmus zur Lösung des Problems -- 6.3.3 Anwendung des NEAT-Algorithmus zur Lösung des Problems -- 6.3.4 Vergleich mit anderen Lösungsverfahren -- 7 Schlussbetrachtung -- 7.1 Zusammenfassung und Diskussion -- 7.2 Ausblick -- Literaturverzeichnis.</subfield></datafield><datafield tag="650" ind1=" " ind2="0"><subfield code="a">Machine learning.</subfield></datafield><datafield tag="650" ind1=" " ind2="0"><subfield code="a">Manufactures.</subfield></datafield><datafield tag="650" ind1=" " ind2="0"><subfield code="a">Industrial engineering.</subfield></datafield><datafield tag="650" ind1=" " ind2="0"><subfield code="a">Production engineering.</subfield></datafield><datafield tag="650" ind1="1" ind2="4"><subfield code="a">Machine Learning.</subfield></datafield><datafield tag="650" ind1="2" ind2="4"><subfield code="a">Machines, Tools, Processes.</subfield></datafield><datafield tag="650" ind1="2" ind2="4"><subfield code="a">Industrial and Production Engineering.</subfield></datafield><datafield tag="776" ind1=" " ind2=" "><subfield code="z">3-658-41750-1</subfield></datafield><datafield tag="906" ind1=" " ind2=" "><subfield code="a">BOOK</subfield></datafield><datafield tag="ADM" ind1=" " ind2=" "><subfield code="b">2023-11-09 02:49:13 Europe/Vienna</subfield><subfield code="f">system</subfield><subfield code="c">marc21</subfield><subfield code="a">2023-07-04 13:45:39 Europe/Vienna</subfield><subfield code="g">false</subfield></datafield><datafield tag="AVE" ind1=" " ind2=" "><subfield code="i">DOAB Directory of Open Access Books</subfield><subfield code="P">DOAB Directory of Open Access Books</subfield><subfield code="x">https://eu02.alma.exlibrisgroup.com/view/uresolver/43ACC_OEAW/openurl?u.ignore_date_coverage=true&amp;portfolio_pid=5347758390004498&amp;Force_direct=true</subfield><subfield code="Z">5347758390004498</subfield><subfield code="b">Available</subfield><subfield code="8">5347758390004498</subfield></datafield></record></collection>