Methoden des Bestärkenden Lernens Für Die Produktionsablaufplanung.
Saved in:
: | |
---|---|
Place / Publishing House: | Wiesbaden : : Springer Vieweg. in Springer Fachmedien Wiesbaden GmbH,, 2023. {copy}2023. |
Year of Publication: | 2023 |
Edition: | 1st ed. |
Language: | German |
Online Access: | |
Physical Description: | 1 online resource (314 pages) |
Tags: |
Add Tag
No Tags, Be the first to tag this record!
|
id |
50030605736 |
---|---|
ctrlnum |
(MiAaPQ)50030605736 (Au-PeEL)EBL30605736 (OCoLC)1389485904 |
collection |
bib_alma |
record_format |
marc |
spelling |
Lang, Sebastian. Methoden des Bestärkenden Lernens Für Die Produktionsablaufplanung. 1st ed. Wiesbaden : Springer Vieweg. in Springer Fachmedien Wiesbaden GmbH, 2023. {copy}2023. 1 online resource (314 pages) text txt rdacontent computer c rdamedia online resource cr rdacarrier Intro -- Danksagung -- Kurzfassung -- Inhaltsverzeichnis -- Abbildungsverzeichnis -- Tabellenverzeichnis -- Abkürzungsverzeichnis -- Mathematische Notation -- Für Probleme der Produktionsablaufplanung -- Für gradientenabhängiges bestärkendes Lernen -- Für gradientenfreies bestärkendes Lernen -- Statistische Kenngrößen -- 1 Einleitung -- 1.1 Motivation und Problemstellung -- 1.2 Zielstellung der Arbeit und Forschungsfragen -- 1.3 Forschungsmethodik und Aufbau der Arbeit -- 2 Grundlagen der Produktionsablaufplanung -- 2.1 Begriffsbestimmung und thematische Abgrenzung -- 2.2 Prozess der Produktionsablaufplanung -- 2.3 Mathematische Optimierung der Produktionsablaufplanung -- 2.3.1 Mathematische Formalisierung -- 2.3.2 Modellbildung -- 2.3.3 Konventionelle Lösungsverfahren -- 3 Grundlagen des Bestärkenden Lernens -- 3.1 Einordnung in die künstliche Intelligenz und in das maschinelle Lernen -- 3.1.1 Überwachtes Lernen als angrenzendes Paradigma -- 3.1.2 Unüberwachten Lernens als angrenzendes Paradigma -- 3.2 Grundprinzip und Taxonomie des bestärkenden Lernens -- 3.3 Gradientenabhängiges bestärkendes Lernen -- 3.3.1 Markov-Entscheidungsproblem -- 3.3.2 Nutzenfunktion -- 3.3.3 Aktionsnutzen-bewertende Verfahren -- 3.3.4 Entscheidungspolitik-approximierende Verfahren -- 3.3.5 Actor-Critic-Verfahren -- 3.4 Gradientenfreies bestärkendes Lernen -- 3.4.1 Modellsuchende und parameteroptimierende Verfahren -- 3.4.2 Hybride Verfahren - NeuroEvolution of Augmenting Topologies -- 4 Stand der Wissenschaft und Technik: Bestärkendes Lernen in der Produktionsablaufplanung -- 4.1 Gradientenabhängige Verfahren für die Produktionsablaufplanung -- 4.1.1 Agentenbasierte Auswahl von Prioritätsregeln -- 4.1.2 Agentenbasierte Ressourcenbelegungsplanung -- 4.1.3 Agentenbasierte Reihenfolgeplanung -- 4.1.4 Agentenbasierte Losbildung. 4.1.5 Agentenbasiertes Reparieren von ungültigen Ablaufplänen -- 4.2 Gradientenfreie Verfahren für die Ablaufplanung im Allgemeinen -- 4.2.1 Einsatz der Kreuzentropie-Methode in der Ablaufplanung -- 4.2.2 Einsatz von Bayes'scher Optimierung in der Ablaufplanung -- 4.2.3 Einsatz von Neuro-Evolution in der Ablaufplanung -- 4.3 Zusammenfassung und Diskussion der Forschungslücke -- 5 Eine Methode zum Einsatz von bestärkenden Lernverfahren für die Produktionsablaufplanung -- 5.1 Ausgangssituation, Problemstellung und Anforderungsdefinition -- 5.2 Von der Produktionsablaufplanung zur agentenbasierten Produktionsablaufsteuerung - Prozessmodell und Funktionsprinzip -- 5.2.1 Agentenbasierte Ressourcenbelegungsplanung -- 5.2.2 Agentenbasierte Reihenfolgeplanung und Losbildung -- 5.3 Projektierung und Entwicklung von agentenbasierten Produktionsablaufsteuerungen -- 5.3.1 Entwurf von Agentenumgebungen -- 5.3.2 Definition von maschinellen Lernaufgaben und Gestaltung von Agenten -- 5.3.3 Integration und Inbetriebnahme von Agenten und Agentenumgebungen -- 5.3.4 Auswahl und Implementierung von bestärkenden Lernverfahren -- 5.3.5 Gestaltung von Belohnungsfunktionen -- 5.3.6 Training von Agenten -- 5.4 Zusammenfassung der Methode -- 6 Evaluation der entwickelten Methode -- 6.1 Flexible-Job-Shop-Problem mit flexibler Operationsplanung -- 6.1.1 Problembeschreibung -- 6.1.2 Anwendung des DQN-Algorithmus zur Lösung des Problems -- 6.1.3 Diskussion der Ergebnisse -- 6.1.4 Erweiterung des Problems um einen dynamischen Auftragshorizont -- 6.2 Dynamisches Parallel-Maschinen-Problem mit familienabhängigen Rüstzeiten und ressourcenabhängigen Bearbeitungsgeschwindigkeiten -- 6.2.1 Problembeschreibung -- 6.2.2 Anwendung des PPO-Algorithmus zur Lösung des Problems -- 6.2.3 Diskussion der Ergebnisse -- 6.3 Zweistufiges Hybrid-Flow-Shop-Problem mit familienabhängigen Rüstzeiten. 6.3.1 Problembeschreibung -- 6.3.2 Anwendung des A2C-Algorithmus zur Lösung des Problems -- 6.3.3 Anwendung des NEAT-Algorithmus zur Lösung des Problems -- 6.3.4 Vergleich mit anderen Lösungsverfahren -- 7 Schlussbetrachtung -- 7.1 Zusammenfassung und Diskussion -- 7.2 Ausblick -- Literaturverzeichnis. Description based on publisher supplied metadata and other sources. Electronic reproduction. Ann Arbor, Michigan : ProQuest Ebook Central, 2024. Available via World Wide Web. Access may be limited to ProQuest Ebook Central affiliated libraries. Electronic books. Print version: Lang, Sebastian Methoden des Bestärkenden Lernens Für Die Produktionsablaufplanung Wiesbaden : Springer Vieweg. in Springer Fachmedien Wiesbaden GmbH,c2023 9783658417505 ProQuest (Firm) https://ebookcentral.proquest.com/lib/oeawat/detail.action?docID=30605736 Click to View |
language |
German |
format |
eBook |
author |
Lang, Sebastian. |
spellingShingle |
Lang, Sebastian. Methoden des Bestärkenden Lernens Für Die Produktionsablaufplanung. Intro -- Danksagung -- Kurzfassung -- Inhaltsverzeichnis -- Abbildungsverzeichnis -- Tabellenverzeichnis -- Abkürzungsverzeichnis -- Mathematische Notation -- Für Probleme der Produktionsablaufplanung -- Für gradientenabhängiges bestärkendes Lernen -- Für gradientenfreies bestärkendes Lernen -- Statistische Kenngrößen -- 1 Einleitung -- 1.1 Motivation und Problemstellung -- 1.2 Zielstellung der Arbeit und Forschungsfragen -- 1.3 Forschungsmethodik und Aufbau der Arbeit -- 2 Grundlagen der Produktionsablaufplanung -- 2.1 Begriffsbestimmung und thematische Abgrenzung -- 2.2 Prozess der Produktionsablaufplanung -- 2.3 Mathematische Optimierung der Produktionsablaufplanung -- 2.3.1 Mathematische Formalisierung -- 2.3.2 Modellbildung -- 2.3.3 Konventionelle Lösungsverfahren -- 3 Grundlagen des Bestärkenden Lernens -- 3.1 Einordnung in die künstliche Intelligenz und in das maschinelle Lernen -- 3.1.1 Überwachtes Lernen als angrenzendes Paradigma -- 3.1.2 Unüberwachten Lernens als angrenzendes Paradigma -- 3.2 Grundprinzip und Taxonomie des bestärkenden Lernens -- 3.3 Gradientenabhängiges bestärkendes Lernen -- 3.3.1 Markov-Entscheidungsproblem -- 3.3.2 Nutzenfunktion -- 3.3.3 Aktionsnutzen-bewertende Verfahren -- 3.3.4 Entscheidungspolitik-approximierende Verfahren -- 3.3.5 Actor-Critic-Verfahren -- 3.4 Gradientenfreies bestärkendes Lernen -- 3.4.1 Modellsuchende und parameteroptimierende Verfahren -- 3.4.2 Hybride Verfahren - NeuroEvolution of Augmenting Topologies -- 4 Stand der Wissenschaft und Technik: Bestärkendes Lernen in der Produktionsablaufplanung -- 4.1 Gradientenabhängige Verfahren für die Produktionsablaufplanung -- 4.1.1 Agentenbasierte Auswahl von Prioritätsregeln -- 4.1.2 Agentenbasierte Ressourcenbelegungsplanung -- 4.1.3 Agentenbasierte Reihenfolgeplanung -- 4.1.4 Agentenbasierte Losbildung. 4.1.5 Agentenbasiertes Reparieren von ungültigen Ablaufplänen -- 4.2 Gradientenfreie Verfahren für die Ablaufplanung im Allgemeinen -- 4.2.1 Einsatz der Kreuzentropie-Methode in der Ablaufplanung -- 4.2.2 Einsatz von Bayes'scher Optimierung in der Ablaufplanung -- 4.2.3 Einsatz von Neuro-Evolution in der Ablaufplanung -- 4.3 Zusammenfassung und Diskussion der Forschungslücke -- 5 Eine Methode zum Einsatz von bestärkenden Lernverfahren für die Produktionsablaufplanung -- 5.1 Ausgangssituation, Problemstellung und Anforderungsdefinition -- 5.2 Von der Produktionsablaufplanung zur agentenbasierten Produktionsablaufsteuerung - Prozessmodell und Funktionsprinzip -- 5.2.1 Agentenbasierte Ressourcenbelegungsplanung -- 5.2.2 Agentenbasierte Reihenfolgeplanung und Losbildung -- 5.3 Projektierung und Entwicklung von agentenbasierten Produktionsablaufsteuerungen -- 5.3.1 Entwurf von Agentenumgebungen -- 5.3.2 Definition von maschinellen Lernaufgaben und Gestaltung von Agenten -- 5.3.3 Integration und Inbetriebnahme von Agenten und Agentenumgebungen -- 5.3.4 Auswahl und Implementierung von bestärkenden Lernverfahren -- 5.3.5 Gestaltung von Belohnungsfunktionen -- 5.3.6 Training von Agenten -- 5.4 Zusammenfassung der Methode -- 6 Evaluation der entwickelten Methode -- 6.1 Flexible-Job-Shop-Problem mit flexibler Operationsplanung -- 6.1.1 Problembeschreibung -- 6.1.2 Anwendung des DQN-Algorithmus zur Lösung des Problems -- 6.1.3 Diskussion der Ergebnisse -- 6.1.4 Erweiterung des Problems um einen dynamischen Auftragshorizont -- 6.2 Dynamisches Parallel-Maschinen-Problem mit familienabhängigen Rüstzeiten und ressourcenabhängigen Bearbeitungsgeschwindigkeiten -- 6.2.1 Problembeschreibung -- 6.2.2 Anwendung des PPO-Algorithmus zur Lösung des Problems -- 6.2.3 Diskussion der Ergebnisse -- 6.3 Zweistufiges Hybrid-Flow-Shop-Problem mit familienabhängigen Rüstzeiten. 6.3.1 Problembeschreibung -- 6.3.2 Anwendung des A2C-Algorithmus zur Lösung des Problems -- 6.3.3 Anwendung des NEAT-Algorithmus zur Lösung des Problems -- 6.3.4 Vergleich mit anderen Lösungsverfahren -- 7 Schlussbetrachtung -- 7.1 Zusammenfassung und Diskussion -- 7.2 Ausblick -- Literaturverzeichnis. |
author_facet |
Lang, Sebastian. |
author_variant |
s l sl |
author_sort |
Lang, Sebastian. |
title |
Methoden des Bestärkenden Lernens Für Die Produktionsablaufplanung. |
title_full |
Methoden des Bestärkenden Lernens Für Die Produktionsablaufplanung. |
title_fullStr |
Methoden des Bestärkenden Lernens Für Die Produktionsablaufplanung. |
title_full_unstemmed |
Methoden des Bestärkenden Lernens Für Die Produktionsablaufplanung. |
title_auth |
Methoden des Bestärkenden Lernens Für Die Produktionsablaufplanung. |
title_new |
Methoden des Bestärkenden Lernens Für Die Produktionsablaufplanung. |
title_sort |
methoden des bestärkenden lernens für die produktionsablaufplanung. |
publisher |
Springer Vieweg. in Springer Fachmedien Wiesbaden GmbH, |
publishDate |
2023 |
physical |
1 online resource (314 pages) |
edition |
1st ed. |
contents |
Intro -- Danksagung -- Kurzfassung -- Inhaltsverzeichnis -- Abbildungsverzeichnis -- Tabellenverzeichnis -- Abkürzungsverzeichnis -- Mathematische Notation -- Für Probleme der Produktionsablaufplanung -- Für gradientenabhängiges bestärkendes Lernen -- Für gradientenfreies bestärkendes Lernen -- Statistische Kenngrößen -- 1 Einleitung -- 1.1 Motivation und Problemstellung -- 1.2 Zielstellung der Arbeit und Forschungsfragen -- 1.3 Forschungsmethodik und Aufbau der Arbeit -- 2 Grundlagen der Produktionsablaufplanung -- 2.1 Begriffsbestimmung und thematische Abgrenzung -- 2.2 Prozess der Produktionsablaufplanung -- 2.3 Mathematische Optimierung der Produktionsablaufplanung -- 2.3.1 Mathematische Formalisierung -- 2.3.2 Modellbildung -- 2.3.3 Konventionelle Lösungsverfahren -- 3 Grundlagen des Bestärkenden Lernens -- 3.1 Einordnung in die künstliche Intelligenz und in das maschinelle Lernen -- 3.1.1 Überwachtes Lernen als angrenzendes Paradigma -- 3.1.2 Unüberwachten Lernens als angrenzendes Paradigma -- 3.2 Grundprinzip und Taxonomie des bestärkenden Lernens -- 3.3 Gradientenabhängiges bestärkendes Lernen -- 3.3.1 Markov-Entscheidungsproblem -- 3.3.2 Nutzenfunktion -- 3.3.3 Aktionsnutzen-bewertende Verfahren -- 3.3.4 Entscheidungspolitik-approximierende Verfahren -- 3.3.5 Actor-Critic-Verfahren -- 3.4 Gradientenfreies bestärkendes Lernen -- 3.4.1 Modellsuchende und parameteroptimierende Verfahren -- 3.4.2 Hybride Verfahren - NeuroEvolution of Augmenting Topologies -- 4 Stand der Wissenschaft und Technik: Bestärkendes Lernen in der Produktionsablaufplanung -- 4.1 Gradientenabhängige Verfahren für die Produktionsablaufplanung -- 4.1.1 Agentenbasierte Auswahl von Prioritätsregeln -- 4.1.2 Agentenbasierte Ressourcenbelegungsplanung -- 4.1.3 Agentenbasierte Reihenfolgeplanung -- 4.1.4 Agentenbasierte Losbildung. 4.1.5 Agentenbasiertes Reparieren von ungültigen Ablaufplänen -- 4.2 Gradientenfreie Verfahren für die Ablaufplanung im Allgemeinen -- 4.2.1 Einsatz der Kreuzentropie-Methode in der Ablaufplanung -- 4.2.2 Einsatz von Bayes'scher Optimierung in der Ablaufplanung -- 4.2.3 Einsatz von Neuro-Evolution in der Ablaufplanung -- 4.3 Zusammenfassung und Diskussion der Forschungslücke -- 5 Eine Methode zum Einsatz von bestärkenden Lernverfahren für die Produktionsablaufplanung -- 5.1 Ausgangssituation, Problemstellung und Anforderungsdefinition -- 5.2 Von der Produktionsablaufplanung zur agentenbasierten Produktionsablaufsteuerung - Prozessmodell und Funktionsprinzip -- 5.2.1 Agentenbasierte Ressourcenbelegungsplanung -- 5.2.2 Agentenbasierte Reihenfolgeplanung und Losbildung -- 5.3 Projektierung und Entwicklung von agentenbasierten Produktionsablaufsteuerungen -- 5.3.1 Entwurf von Agentenumgebungen -- 5.3.2 Definition von maschinellen Lernaufgaben und Gestaltung von Agenten -- 5.3.3 Integration und Inbetriebnahme von Agenten und Agentenumgebungen -- 5.3.4 Auswahl und Implementierung von bestärkenden Lernverfahren -- 5.3.5 Gestaltung von Belohnungsfunktionen -- 5.3.6 Training von Agenten -- 5.4 Zusammenfassung der Methode -- 6 Evaluation der entwickelten Methode -- 6.1 Flexible-Job-Shop-Problem mit flexibler Operationsplanung -- 6.1.1 Problembeschreibung -- 6.1.2 Anwendung des DQN-Algorithmus zur Lösung des Problems -- 6.1.3 Diskussion der Ergebnisse -- 6.1.4 Erweiterung des Problems um einen dynamischen Auftragshorizont -- 6.2 Dynamisches Parallel-Maschinen-Problem mit familienabhängigen Rüstzeiten und ressourcenabhängigen Bearbeitungsgeschwindigkeiten -- 6.2.1 Problembeschreibung -- 6.2.2 Anwendung des PPO-Algorithmus zur Lösung des Problems -- 6.2.3 Diskussion der Ergebnisse -- 6.3 Zweistufiges Hybrid-Flow-Shop-Problem mit familienabhängigen Rüstzeiten. 6.3.1 Problembeschreibung -- 6.3.2 Anwendung des A2C-Algorithmus zur Lösung des Problems -- 6.3.3 Anwendung des NEAT-Algorithmus zur Lösung des Problems -- 6.3.4 Vergleich mit anderen Lösungsverfahren -- 7 Schlussbetrachtung -- 7.1 Zusammenfassung und Diskussion -- 7.2 Ausblick -- Literaturverzeichnis. |
isbn |
9783658417512 9783658417505 |
callnumber-first |
Q - Science |
callnumber-subject |
Q - General Science |
callnumber-label |
Q325 |
callnumber-sort |
Q 3325.5 17 |
genre |
Electronic books. |
genre_facet |
Electronic books. |
url |
https://ebookcentral.proquest.com/lib/oeawat/detail.action?docID=30605736 |
illustrated |
Not Illustrated |
oclc_num |
1389485904 |
work_keys_str_mv |
AT langsebastian methodendesbestarkendenlernensfurdieproduktionsablaufplanung |
status_str |
n |
ids_txt_mv |
(MiAaPQ)50030605736 (Au-PeEL)EBL30605736 (OCoLC)1389485904 |
carrierType_str_mv |
cr |
is_hierarchy_title |
Methoden des Bestärkenden Lernens Für Die Produktionsablaufplanung. |
marc_error |
Info : No Determination made, defaulting to MARC8 --- [ 856 : z ] |
_version_ |
1792331070903943168 |
fullrecord |
<?xml version="1.0" encoding="UTF-8"?><collection xmlns="http://www.loc.gov/MARC21/slim"><record><leader>05711nam a22003973i 4500</leader><controlfield tag="001">50030605736</controlfield><controlfield tag="003">MiAaPQ</controlfield><controlfield tag="005">20240229073850.0</controlfield><controlfield tag="006">m o d | </controlfield><controlfield tag="007">cr cnu||||||||</controlfield><controlfield tag="008">240229s2023 xx o ||||0 ger d</controlfield><datafield tag="020" ind1=" " ind2=" "><subfield code="a">9783658417512</subfield><subfield code="q">(electronic bk.)</subfield></datafield><datafield tag="020" ind1=" " ind2=" "><subfield code="z">9783658417505</subfield></datafield><datafield tag="035" ind1=" " ind2=" "><subfield code="a">(MiAaPQ)50030605736</subfield></datafield><datafield tag="035" ind1=" " ind2=" "><subfield code="a">(Au-PeEL)EBL30605736</subfield></datafield><datafield tag="035" ind1=" " ind2=" "><subfield code="a">(OCoLC)1389485904</subfield></datafield><datafield tag="040" ind1=" " ind2=" "><subfield code="a">MiAaPQ</subfield><subfield code="b">eng</subfield><subfield code="e">rda</subfield><subfield code="e">pn</subfield><subfield code="c">MiAaPQ</subfield><subfield code="d">MiAaPQ</subfield></datafield><datafield tag="050" ind1=" " ind2="4"><subfield code="a">Q325.5-.7</subfield></datafield><datafield tag="100" ind1="1" ind2=" "><subfield code="a">Lang, Sebastian.</subfield></datafield><datafield tag="245" ind1="1" ind2="0"><subfield code="a">Methoden des Bestärkenden Lernens Für Die Produktionsablaufplanung.</subfield></datafield><datafield tag="250" ind1=" " ind2=" "><subfield code="a">1st ed.</subfield></datafield><datafield tag="264" ind1=" " ind2="1"><subfield code="a">Wiesbaden :</subfield><subfield code="b">Springer Vieweg. in Springer Fachmedien Wiesbaden GmbH,</subfield><subfield code="c">2023.</subfield></datafield><datafield tag="264" ind1=" " ind2="4"><subfield code="c">{copy}2023.</subfield></datafield><datafield tag="300" ind1=" " ind2=" "><subfield code="a">1 online resource (314 pages)</subfield></datafield><datafield tag="336" ind1=" " ind2=" "><subfield code="a">text</subfield><subfield code="b">txt</subfield><subfield code="2">rdacontent</subfield></datafield><datafield tag="337" ind1=" " ind2=" "><subfield code="a">computer</subfield><subfield code="b">c</subfield><subfield code="2">rdamedia</subfield></datafield><datafield tag="338" ind1=" " ind2=" "><subfield code="a">online resource</subfield><subfield code="b">cr</subfield><subfield code="2">rdacarrier</subfield></datafield><datafield tag="505" ind1="0" ind2=" "><subfield code="a">Intro -- Danksagung -- Kurzfassung -- Inhaltsverzeichnis -- Abbildungsverzeichnis -- Tabellenverzeichnis -- Abkürzungsverzeichnis -- Mathematische Notation -- Für Probleme der Produktionsablaufplanung -- Für gradientenabhängiges bestärkendes Lernen -- Für gradientenfreies bestärkendes Lernen -- Statistische Kenngrößen -- 1 Einleitung -- 1.1 Motivation und Problemstellung -- 1.2 Zielstellung der Arbeit und Forschungsfragen -- 1.3 Forschungsmethodik und Aufbau der Arbeit -- 2 Grundlagen der Produktionsablaufplanung -- 2.1 Begriffsbestimmung und thematische Abgrenzung -- 2.2 Prozess der Produktionsablaufplanung -- 2.3 Mathematische Optimierung der Produktionsablaufplanung -- 2.3.1 Mathematische Formalisierung -- 2.3.2 Modellbildung -- 2.3.3 Konventionelle Lösungsverfahren -- 3 Grundlagen des Bestärkenden Lernens -- 3.1 Einordnung in die künstliche Intelligenz und in das maschinelle Lernen -- 3.1.1 Überwachtes Lernen als angrenzendes Paradigma -- 3.1.2 Unüberwachten Lernens als angrenzendes Paradigma -- 3.2 Grundprinzip und Taxonomie des bestärkenden Lernens -- 3.3 Gradientenabhängiges bestärkendes Lernen -- 3.3.1 Markov-Entscheidungsproblem -- 3.3.2 Nutzenfunktion -- 3.3.3 Aktionsnutzen-bewertende Verfahren -- 3.3.4 Entscheidungspolitik-approximierende Verfahren -- 3.3.5 Actor-Critic-Verfahren -- 3.4 Gradientenfreies bestärkendes Lernen -- 3.4.1 Modellsuchende und parameteroptimierende Verfahren -- 3.4.2 Hybride Verfahren - NeuroEvolution of Augmenting Topologies -- 4 Stand der Wissenschaft und Technik: Bestärkendes Lernen in der Produktionsablaufplanung -- 4.1 Gradientenabhängige Verfahren für die Produktionsablaufplanung -- 4.1.1 Agentenbasierte Auswahl von Prioritätsregeln -- 4.1.2 Agentenbasierte Ressourcenbelegungsplanung -- 4.1.3 Agentenbasierte Reihenfolgeplanung -- 4.1.4 Agentenbasierte Losbildung.</subfield></datafield><datafield tag="505" ind1="8" ind2=" "><subfield code="a">4.1.5 Agentenbasiertes Reparieren von ungültigen Ablaufplänen -- 4.2 Gradientenfreie Verfahren für die Ablaufplanung im Allgemeinen -- 4.2.1 Einsatz der Kreuzentropie-Methode in der Ablaufplanung -- 4.2.2 Einsatz von Bayes'scher Optimierung in der Ablaufplanung -- 4.2.3 Einsatz von Neuro-Evolution in der Ablaufplanung -- 4.3 Zusammenfassung und Diskussion der Forschungslücke -- 5 Eine Methode zum Einsatz von bestärkenden Lernverfahren für die Produktionsablaufplanung -- 5.1 Ausgangssituation, Problemstellung und Anforderungsdefinition -- 5.2 Von der Produktionsablaufplanung zur agentenbasierten Produktionsablaufsteuerung - Prozessmodell und Funktionsprinzip -- 5.2.1 Agentenbasierte Ressourcenbelegungsplanung -- 5.2.2 Agentenbasierte Reihenfolgeplanung und Losbildung -- 5.3 Projektierung und Entwicklung von agentenbasierten Produktionsablaufsteuerungen -- 5.3.1 Entwurf von Agentenumgebungen -- 5.3.2 Definition von maschinellen Lernaufgaben und Gestaltung von Agenten -- 5.3.3 Integration und Inbetriebnahme von Agenten und Agentenumgebungen -- 5.3.4 Auswahl und Implementierung von bestärkenden Lernverfahren -- 5.3.5 Gestaltung von Belohnungsfunktionen -- 5.3.6 Training von Agenten -- 5.4 Zusammenfassung der Methode -- 6 Evaluation der entwickelten Methode -- 6.1 Flexible-Job-Shop-Problem mit flexibler Operationsplanung -- 6.1.1 Problembeschreibung -- 6.1.2 Anwendung des DQN-Algorithmus zur Lösung des Problems -- 6.1.3 Diskussion der Ergebnisse -- 6.1.4 Erweiterung des Problems um einen dynamischen Auftragshorizont -- 6.2 Dynamisches Parallel-Maschinen-Problem mit familienabhängigen Rüstzeiten und ressourcenabhängigen Bearbeitungsgeschwindigkeiten -- 6.2.1 Problembeschreibung -- 6.2.2 Anwendung des PPO-Algorithmus zur Lösung des Problems -- 6.2.3 Diskussion der Ergebnisse -- 6.3 Zweistufiges Hybrid-Flow-Shop-Problem mit familienabhängigen Rüstzeiten.</subfield></datafield><datafield tag="505" ind1="8" ind2=" "><subfield code="a">6.3.1 Problembeschreibung -- 6.3.2 Anwendung des A2C-Algorithmus zur Lösung des Problems -- 6.3.3 Anwendung des NEAT-Algorithmus zur Lösung des Problems -- 6.3.4 Vergleich mit anderen Lösungsverfahren -- 7 Schlussbetrachtung -- 7.1 Zusammenfassung und Diskussion -- 7.2 Ausblick -- Literaturverzeichnis.</subfield></datafield><datafield tag="588" ind1=" " ind2=" "><subfield code="a">Description based on publisher supplied metadata and other sources.</subfield></datafield><datafield tag="590" ind1=" " ind2=" "><subfield code="a">Electronic reproduction. Ann Arbor, Michigan : ProQuest Ebook Central, 2024. Available via World Wide Web. Access may be limited to ProQuest Ebook Central affiliated libraries. </subfield></datafield><datafield tag="655" ind1=" " ind2="4"><subfield code="a">Electronic books.</subfield></datafield><datafield tag="776" ind1="0" ind2="8"><subfield code="i">Print version:</subfield><subfield code="a">Lang, Sebastian</subfield><subfield code="t">Methoden des Bestärkenden Lernens Für Die Produktionsablaufplanung</subfield><subfield code="d">Wiesbaden : Springer Vieweg. in Springer Fachmedien Wiesbaden GmbH,c2023</subfield><subfield code="z">9783658417505</subfield></datafield><datafield tag="797" ind1="2" ind2=" "><subfield code="a">ProQuest (Firm)</subfield></datafield><datafield tag="856" ind1="4" ind2="0"><subfield code="u">https://ebookcentral.proquest.com/lib/oeawat/detail.action?docID=30605736</subfield><subfield code="z">Click to View</subfield></datafield></record></collection> |