Kategorien
Logik Paradoxe

Kleene-Rosser-Paradoxon

In der Mathematik ist das Kleene-Rosser-Paradoxon ein Paradoxon, das zeigt, dass bestimmte Systeme der formalen Logik inkonsistent sind, insbesondere die 1930 eingeführte Version von Currys kombinatorischer Logik und die ursprüngliche Lambda-Rechnung der Kirche, die 1932–1933 eingeführt wurde und beide ursprünglich als gedacht war Systeme der formalen Logik. Das Paradoxon wurde 1935 von Stephen Kleene und JB Rosser ausgestellt.

Das Paradox
Kleene und Rosser konnten zeigen, dass beide Systeme ihre nachweislich vollständigen, definierbaren zahlentheoretischen Funktionen charakterisieren und aufzählen können, wodurch sie einen Begriff konstruieren konnten, der das Richard-Paradoxon in formaler Sprache im Wesentlichen repliziert.

Später gelang es Curry, die entscheidenden Bestandteile der Kalküle zu identifizieren, die die Konstruktion dieses Paradoxons ermöglichten, und daraus ein viel einfacheres Paradoxon zu konstruieren, das heute als Curry-Paradoxon bekannt ist.

1935 veröffentlichten Kleene und Rosser einen Beweis dafür, dass bestimmte Systeme der formalen Logik inkonsistent sind, in dem Sinne, dass jede Formel, die in ihrer Notation ausgedrückt werden kann, auch nachweisbar ist. Es gibt also nur zwei Systeme in der Literatur, für die dieser Inkonsistenzbeweis gilt; Das kirchliche System von 1932-1933 und das, was ich 1934 als 8-System bezeichnete. Trotz dieser begrenzten Anwendung ist das Argument von Kleene und Rosser ein Theorem von großer Bedeutung für die Führung künftiger Forschung. Es ist ein Theorem mit demselben allgemeinen Charakter wie die berühmten Unvollständigkeitssätze von Löwenheim, Skolem und Godel, die in der jüngsten Forschung zu mathematischen Grundlagen eine so herausragende Rolle gespielt haben.

Der Beweis von Kleene und Rosser ist lang und kompliziert und enthält Komplikationen, die dazu neigen, die wesentliche Bedeutung ihres Satzes zu verschleiern. Dementsprechend besteht ein gewisses Interesse an dem Problem, dieses Paradoxon zugänglicher zu machen und es so darzustellen, dass diese wesentliche Bedeutung deutlicher hervorgehoben wird. Dies versucht das vorliegende Papier zu tun. Das Paradoxon wird hier durch eine Methode dargestellt und abgeleitet, die unter dem angegebenen Gesichtspunkt viele Vorteile gegenüber den ursprünglichen Entdeckern aufweist.

Bevor wir auf eine ausführliche Diskussion eingehen, ist es zweckmäßig, das Paradoxon vage vorab zu untersuchen und die zentrale Idee in ihrer Ableitung intuitiv zu erläutern

Eines der Ziele, auf die Mathematiker beim Aufbau formaler Systeme abzielen, ist die Vollständigkeit – womit ich nicht die Vollständigkeit im technischen Sinne meine, sondern einfach die Angemessenheit des Systems für den einen oder anderen Zweck.

Es gibt zwei Arten solcher Vollständigkeit, die besonders betroffen sind; beide sind wünschenswerte Eigenschaften formaler Systeme der mathematischen Logik. Diese kombinatorische Vollständigkeit bzw. deduktive Vollständigkeit. Sie können grob wie folgt erklärt werden. Eine Theorie ist genau dann kombinatorisch vollständig, wenn jeder Ausdruck A, der aus den Begriffen des Systems und einem unbestimmten oder variablen Hilfsmittel x gebildet wird, innerhalb des Systems als Funktion von x dargestellt werden kann (dh wir können im System eine Funktion bilden, deren Der Wert für ein beliebiges Argument entspricht dem Ergebnis des Ersetzens dieses Arguments für x in W). Eine Theorie ist deduktiv vollständig, wenn wir, wenn wir einen Satz B auf der Hypothese ableiten können, dass ein anderer Satz A gilt, ohne Hypothese einen dritten Satz (wie A ^) B ableiten können, der diese Ableitbarkeit ausdrückt. Die kombinatorische Vollständigkeit ist somit eine Eigenschaft, die sich auf die möglichen Konstruktionen von Begriffen (oder Formeln) innerhalb des Systems bezieht. Die deduktive Vollständigkeit bezieht sich auf die möglichen Ableitungen. Die deduktive Vollständigkeit ist eine bekannte Eigenschaft bestimmter Systeme. Die kombinatorische Vollständigkeit wurde erst in den letzten Jahren erreicht.

Das Wesentliche des Kleene-Rosser-Theorems ist, dass es zeigt, dass diese beiden Arten der Vollständigkeit nicht kompatibel sind – dh dass jedes System, das beide besitzt, inkonsistent ist. Das Argument ist im Wesentlichen eine Verfeinerung des Richard-Paradoxons; es zeigt in der Tat, dass das Richard-Paradoxon formal innerhalb des Systems eingerichtet werden kann.

Um dies vorläufig zu sehen, stellen wir das Richard-Paradoxon wie folgt auf. In jedem formalen System der Arithmetik ist die Anzahl definierbarer numerischer Funktionen natürlicher Zahlen aufzählbar; Lassen Sie sie daher in einer Reihenfolge aufzählen

Lassen wir die Erklärung dieses Paradoxons aus intuitiver Sicht außer Acht und betrachten wir, was bei einem System geschieht, das sowohl kombinatorisch als auch deduktiv vollständig ist. Wenn in einem solchen System eine Funktion eine numerische Funktion ist, dh wenn sie numerische Werte für alle numerischen Argumente (u) angibt, kann eine formale Aussage dieser Tatsache innerhalb des Systems demonstriert werden, da sie deduktiv vollständig ist; Durch eine rekursive Aufzählung aller Theoreme kann dann die Menge aller numerischen Funktionen effektiv in einer Folge aufgezählt werden. Da die Theorie kombinatorisch vollständig ist, können wir dann innerhalb des Systems die Funktion / definieren; Dies ist nachweislich eine numerische Funktion, und die Demonstration dieser Tatsache wird uns den Wert von n effektiv sagen, so dass der obige Widerspruch sicherlich entstehen wird.

Dies zeigt auf grobe Weise die Natur des Paradoxons. Bevor wir zu den formalen Entwicklungen übergehen, werde ich einige Bemerkungen zum vorliegenden Beweis und seiner Beziehung zu dem von Kleene und Rosser interpolieren.

Bei den Untersuchungen von Church und seinen Schülern wird die postulierte kombinatorische Vollständigkeit dadurch geschwächt, dass das A tatsächlich x enthält – so dass es keinen Apparat zur Darstellung einer Konstanten als Funktion geben muss; Es gibt auch eine Schwächung der deduktiven Vollständigkeit. Diese Komplikationen vermeiden nicht das Paradoxon, wie Kleene und Rosser gezeigt haben; Sie erhöhen jedoch die Länge und Komplexität der Ableitung erheblich. Wenn das Ziel darin besteht, den zentralen Nerv des Paradoxons freizulegen, besteht der logische Ansatz darin, den Beweis für den einfacheren Fall, den der kombinatorischen (und deduktiven) Vollständigkeit im starken Sinne, durchzuführen und dann zu zeigen, welche Änderungen erforderlich sind Führen Sie den Beweis für den komplizierteren Fall durch.

Kategorien
Ethik

Autonomie

Die Autonomie bezieht sich auf die Fähigkeit eines Objekts, einer Person oder eines Systems, sich selbst nach seinen eigenen Regeln zu regieren. In anderen Fällen bezieht es sich auf die Eigenschaften eines Unternehmens, das in der Lage ist, unabhängig zu arbeiten, ohne von außen gesteuert zu werden oder ohne Eingaben (Material, Energie usw.) von außen.

In der idealistischen Philosophie ist es die Fähigkeit, sich selbst als das Wesen der Freiheit zu verstehen und aus dieser Freiheit heraus zu handeln. Das Vorhandensein von Autonomie in der Ethik wird auch als Kriterium verwendet, nach dem Einzelpersonen ethische Rechte zugewiesen werden können.

In der Entwicklungspsychologie sowie in der moralischen, politischen und bioethischen Philosophie ist Autonomie die Fähigkeit, eine informierte, ungezwungene Entscheidung zu treffen. Autonome Organisationen oder Institutionen sind unabhängig oder selbstverwaltet. Autonomie kann auch aus Sicht der Humanressourcen definiert werden, wobei sie ein (relativ hohes) Maß an Diskretion bezeichnet, das einem Mitarbeiter bei seiner Arbeit eingeräumt wird. In solchen Fällen ist bekannt, dass Autonomie im Allgemeinen die Arbeitszufriedenheit erhöht. Es wird angenommen, dass selbstverwirklichte Individuen unabhängig von externen Erwartungen agieren. Im medizinischen Kontext wird die Achtung der persönlichen Autonomie eines Patienten als eines von vielen ethischen Grundprinzipien in der Medizin angesehen.

Autonomie und Freiheit
Autonomie steht vor dem Problem, wie sich die Person sich selbst und der Gesellschaft gegenüber verhält. Es wurde traditionell in der Philosophie unter der Binomialfreiheit – Verantwortung studiert, so dass sein Gegenteil der Binomialdeterminismus – Freiheit wäre. Die Analysen der Freiheit (oder des freien Willens, wie sie in der christlichen Tradition genannt werden) gehen von Anfang an durch die Geschichte der Philosophie und gewinnen nach der Einführung des Begriffs der Sünde während der Ausweitung des Christentums eine besondere Bedeutung. Dies erklärt, warum die Frage der Freiheit in der klassischen Antike nicht mit der gleichen Häufigkeit analysiert wurde wie in späteren Zeiten.

Ideengeschichte
Der klassische Philologe und Philosoph Karl-Martin Dietz hat einen historischen Ursprung der Autonomie im Konflikt zwischen Griechen und Persern, insbesondere angesichts der Errungenschaften des Themistokles. „Herodot behauptet bereits, dass freie Menschen nur den Gesetzen gehorchen. Und diese Gesetze sind für alle gleich. Die Orientalen hingegen unterliegen den wechselnden Stimmungen ihrer Herrscher. Allein aus diesem Grund können sie nicht unabhängig denken und handeln Ursprünglich nur mit der Polis und dem Staat verbunden, war die Autonomie des Einzelnen der Keim für die folgende bahnbrechende innere Freiheit. Der älteste Ausdruck der autonomen Beziehung zu einer Person in Sophokles Antigone: Antigone wurde bestraft lebe autonom, individuell, nach der Maxime, die du dir selbst gesetzt hast. “

Autonomie in der Soziologie
In der Wissenssoziologie verhinderte eine Kontroverse über die Grenzen der Autonomie die Analyse eines Konzepts jenseits der relativen Autonomie, bis innerhalb der Wissenschafts- und Technologiestudien eine Typologie der Autonomie geschaffen und entwickelt wurde. Demnach ist die Institution der bestehenden Autonomie der Wissenschaft „reflexive Autonomie“: Akteure und Strukturen im wissenschaftlichen Bereich sind in der Lage, verschiedene Themen aus sozialen und politischen Bereichen zu übersetzen oder zu reflektieren sowie sie in Bezug auf die thematischen Entscheidungen in der Forschung zu beeinflussen Projekte.

Soziologische Analysen und soziale Interventionen nutzen das Konzept der Autonomie auch in großem Umfang, um in eingeschränktem Sinne die Fähigkeit einer Person zu definieren, sich im Gegensatz zur Situation der Sozialhilfe individuell in die Gesellschaft zu integrieren. Anteil Dritter und Behörden: Autonomie älterer Menschen, Menschen mit Behinderungen, Menschen in prekären Situationen usw.

Aus Sicht der sozialen Analyse entspricht der Begriff Autonomie der Fähigkeit, im engeren Sinne autark zu sein oder sich im aktuellen Sinne selbst verwalten zu können. Wenn wir also über Autonomie für einen behinderten Menschen sprechen, lehnen wir die allgemein akzeptierte Idee der Abhängigkeit ab. Ein behinderter Mensch gilt als autonom, wenn er diese Abhängigkeit überwinden und „für sich selbst sorgen“ kann, ohne systematisch die Hilfe anderer benötigen zu müssen. Dies gilt auch für eine gültige Person, unabhängig davon, ob sie sich in einer Behinderungssituation befindet (Stress, Schmerz, Schmerz, Einsamkeit, Depression …) oder nicht.

Mit dem Unterschied, dass für eine gültige Person die kollektive Vorstellungskraft automatisch eine Autonomie und ein Recht auf Autonomie zuschreibt, die man der behinderten Person nicht gewährt. Wir vertreten nicht die Autonomie einer gültigen Person, weil „es selbstverständlich ist“. Abgesehen von all seinen Überlegungen und seiner Betrachtung im engeren Sinne ist jedoch niemand wirklich autonom. Menschen, soziale Wesen schlechthin, brauchen immer andere, um sich auszudrücken, sich zu verwirklichen, sich zu vergleichen, sich selbst zu verstehen, sich zu identifizieren … Und eine behinderte Person, die als autonom bezeichnet wird, ist nur dank „Hilfe von außen“: gelernt Techniken, Lektionen und Lesungen, Orte, an denen nur die gewünschten Informationen gefunden werden können.

Institutionelle Autonomie
Institutionelle Autonomie hat die Fähigkeit eines Gesetzgebers, offizielle Ziele zu implantieren und zu verfolgen. Autonome Institutionen sind dafür verantwortlich, ausreichende Ressourcen zu finden oder ihre Pläne, Programme, Kurse, Verantwortlichkeiten und Dienstleistungen entsprechend zu ändern. Dabei müssen sie sich jedoch mit eventuell auftretenden Hindernissen wie sozialem Druck gegen Kürzungen oder sozioökonomischen Schwierigkeiten auseinandersetzen. Aus Sicht des Gesetzgebers müssen zur Erhöhung der institutionellen Autonomie Bedingungen für die Selbstverwaltung und die institutionelle Selbstverwaltung geschaffen werden. Eine Erhöhung der Führung und eine Umverteilung der Entscheidungsverantwortung wären für die Erforschung der Ressourcen von Vorteil.

Institutionelle Autonomie wurde oft als Synonym für Selbstbestimmung angesehen, und viele Regierungen befürchteten, dass sie Institutionen in eine irredentistische oder sezessionistische Region führen würde. Autonomie sollte jedoch als Lösung für Selbstbestimmungskämpfe gesehen werden. Selbstbestimmung ist eine Bewegung in Richtung Unabhängigkeit, während Autonomie eine Möglichkeit ist, die unterschiedlichen Regionen / Gruppen innerhalb eines Landes zu berücksichtigen. Institutionelle Autonomie kann Konflikte in Bezug auf Minderheiten und ethnische Gruppen in einer Gesellschaft zerstreuen. Wenn Gruppen und Institutionen mehr Autonomie eingeräumt wird, können diplomatische Beziehungen zwischen ihnen und der Zentralregierung hergestellt werden.

Autonomie in der Politik
In der Regierungssprache bezieht sich Autonomie auf Selbstverwaltung. Ein Beispiel für eine autonome Gerichtsbarkeit war die frühere US-Regierung der Philippinen. Das philippinische Autonomiegesetz von 1916 bildete den Rahmen für die Schaffung einer autonomen Regierung, unter der das philippinische Volk eine breitere innerstaatliche Autonomie als zuvor hatte, obwohl es den Vereinigten Staaten bestimmte Privilegien zum Schutz seiner souveränen Rechte und Interessen vorbehalten hatte. Weitere Beispiele sind das Kosovo (als sozialistische autonome Provinz Kosovo) unter der ehemaligen jugoslawischen Regierung von Marschall Tito und die Autonome Region Puntland in der Bundesrepublik Somalia.

Staat und Recht
Im rechtlichen Sinne ist Autonomie das Recht von Vereinen, Nachlässen und Unternehmen, sich innerhalb bestimmter Grenzen von ihren eigenen Normen und Regeln leiten zu lassen.

Die Theorie der öffentlichen Verwaltung unterscheidet die Selbstverwaltung – die Umsetzung der Dezentralisierung der Staatsmacht in Form der Sicherung des Rechts, in der Rechtsform den administrativ-territorialen Einheiten des Staates das Recht auszuüben, im Namen der lokalen Bevölkerung die Fähigkeit und das Recht auszuüben Fähigkeit, die öffentliche Ordnung in lokalen Fragen in bestimmten Bereichen in eigener Verantwortung zu bestimmen. Zusammen mit der Selbstverwaltung – der Gleichheit aller administrativ-territorialen Einheiten – impliziert die Autonomie die Anerkennung autonomer Rechte zur Bestimmung der öffentlichen Ordnung in einigen Bereichen, möglicherweise anders als die Rechte anderer Einheiten. Verwaltungsautonomien werden in den Bereichen öffentliche Verwaltung und Entscheidungsfindung sowie national unterschieden – bei der Umsetzung der Sonderrechte ethnischer Gruppen.

Im Mittelalter waren die umfangreichsten und vielfältigsten Autonomien üblich. Aber auch jetzt wird die Autonomie von Gemeinschaften, Gewerkschaften, Gewerkschaften, Unternehmen in ihren inneren, besonderen Angelegenheiten und Beziehungen anerkannt. Diese Autonomie gewährleistet ihre freie Entwicklung, das notwendige Wachstum und die Ordnung, was sich positiv auf die Entwicklung der Kräfte beider Mitglieder und ihrer Gesamtheit in Einheit oder Vereinigung auswirkt. Darüber hinaus kann der Staat die Autonomie von dynastischen Clans und Landbesitzern zulassen, die bis zum Ende des 19. und Anfang des 20. Jahrhunderts überlebt haben, soweit er dem staatlichen System nicht widerspricht und den Bereich der Familieninstitutionen nicht verlässt Erbrecht (Familienverordnungen, Fideomissen, Trennung von Töchtern usw.).

Autonomie in der Philosophie
Autonomie ist ein Schlüsselkonzept, das einen breiten Einfluss auf verschiedene Bereiche der Philosophie hat. In der metaphysischen Philosophie wird das Konzept der Autonomie in Diskussionen über freien Willen, Fatalismus, Determinismus und Entscheidungsfreiheit erwähnt. Der Philosoph Iain King entwickelte ein „Autonomieprinzip“, das er definiert als „Lassen Sie die Menschen selbst wählen, es sei denn, wir kennen ihre Interessen besser als sie können“. King argumentiert, dass es nicht ausreicht, die Interessen eines anderen besser zu kennen als diesen; Ihre Autonomie sollte nur verletzt werden, wenn diese Person ihre eigenen Interessen in einer bestimmten Angelegenheit nicht kennen kann. In der Moralphilosophie bezieht sich Autonomie darauf, sich dem objektiven Sittengesetz zu unterwerfen.

Nach Kant
Immanuel Kant (1724–1804) definierte Autonomie durch drei Themen der zeitgenössischen Ethik. Erstens Autonomie als das Recht eines Menschen, seine eigenen Entscheidungen zu treffen, ohne dass andere eingreifen. Zweitens Autonomie als die Fähigkeit, solche Entscheidungen durch die eigene Unabhängigkeit des Geistes und nach persönlicher Reflexion zu treffen. Drittens als ideale Art, autonom zu leben. Zusammenfassend ist Autonomie das moralische Recht, das man besitzt, oder die Fähigkeit, selbst zu denken und Entscheidungen zu treffen, um ein gewisses Maß an Kontrolle oder Macht über die Ereignisse zu erlangen, die sich im täglichen Leben entfalten.

Der Kontext, in dem Kant sich mit Autonomie befasst, bezieht sich auf die Moraltheorie und stellt sowohl grundlegende als auch abstrakte Fragen. Er glaubte, dass es Autonomie geben muss, damit es Moral gibt. Er zerlegt die Autonomie in zwei verschiedene Komponenten. „Auto“ kann als negative Form der Unabhängigkeit definiert werden oder im negativen Sinne frei sein. Dies ist der Aspekt, bei dem Entscheidungen selbst getroffen werden. Während „Nomos“ der positive Sinn ist, eine Freiheit oder Rechtmäßigkeit, in der Sie ein Gesetz wählen, dem Sie folgen möchten. Die kantianische Autonomie vermittelt auch ein Gefühl rationaler Autonomie, was einfach bedeutet, dass man rational die Motivation besitzt, sein eigenes Leben zu regieren. Rationale Autonomie beinhaltet das Treffen eigener Entscheidungen, kann jedoch nicht nur isoliert erfolgen.

Kant argumentierte, dass Moral diese Autonomie in moralischen Agenten voraussetzt, da moralische Anforderungen in kategorischen Imperativen ausgedrückt werden. Ein Imperativ ist kategorisch, wenn er einen gültigen Befehl unabhängig von persönlichen Wünschen oder Interessen ausgibt, der einen Grund für die Befolgung des Befehls darstellen würde. Es ist hypothetisch, wenn die Gültigkeit seines Befehls, wenn der Grund, warum erwartet werden kann, dass er ihm gehorcht, die Tatsache ist, dass man etwas wünscht oder daran interessiert ist, das der Gehorsam gegenüber dem Befehl mit sich bringen würde. „Fahren Sie nicht auf der Autobahn, wenn Sie nicht von der Polizei angehalten werden wollen“, ist ein hypothetischer Imperativ. „Es ist falsch, das Gesetz zu brechen, also nicht auf der Autobahn zu beschleunigen“ ist ein kategorischer Imperativ. Der hypothetische Befehl, auf der Autobahn nicht zu beschleunigen, gilt für Sie nicht, wenn es Ihnen egal ist, ob Sie von der Polizei angehalten werden. Der kategoriale Befehl ist in beiden Fällen für Sie gültig. Von autonomen moralischen Akteuren kann erwartet werden, dass sie dem Befehl eines kategorischen Imperativs gehorchen, selbst wenn ihnen ein persönlicher Wunsch oder ein persönliches Interesse daran fehlt. Es bleibt jedoch eine offene Frage, ob dies der Fall sein wird.

Das kantische Konzept der Autonomie wird oft falsch interpretiert, wobei der wichtige Punkt über die Selbstunterwerfung des autonomen Agenten unter das moralische Gesetz weggelassen wird. Es wird angenommen, dass Autonomie vollständig als die Fähigkeit erklärt wird, einem kategorialen Befehl unabhängig von einem persönlichen Wunsch oder Interesse daran zu gehorchen – oder schlimmer noch, dass Autonomie einem kategorialen Befehl unabhängig von einem natürlichen Wunsch oder Interesse „gehorcht“; und diese Heteronomie, ihr Gegenteil, wirkt stattdessen auf persönliche Motive, wie sie in hypothetischen Imperativen erwähnt werden.

In seinen Grundlagen der Metaphysik der Moral wandte Kant den Begriff der Autonomie auch an, um den Begriff der Persönlichkeit und der Menschenwürde zu definieren. Autonomie und Rationalität werden von Kant als die beiden Kriterien für ein sinnvolles Leben angesehen. Kant würde ein Leben ohne diese als nicht lebenswert betrachten; Es wäre ein Leben von Wert, das dem einer Pflanze oder eines Insekts entspricht. Nach Kant ist Autonomie ein Teil des Grundes, warum wir andere moralisch für ihre Handlungen zur Rechenschaft ziehen. Menschliches Handeln ist aufgrund unserer Autonomie moralisch lobenswert oder schuldbewusst. Nicht autonome Wesen wie Pflanzen oder Tiere sind nicht schuldig, weil ihre Handlungen nicht autonom sind. Kants Position zu Verbrechen und Bestrafung wird von seinen Ansichten zur Autonomie beeinflusst. Es wäre unmoralisch, Kriminelle einer Gehirnwäsche zu unterziehen oder Drogen zu nehmen, um gesetzestreue Bürger zu sein, da dies ihre Autonomie nicht respektieren würde. Rehabilitation muss auf eine Weise angestrebt werden, die ihre Autonomie und Würde als Menschen respektiert.

Nach Nietzsche
Friedrich Nietzsche schrieb über Autonomie und den moralischen Kampf. Autonomie in diesem Sinne wird als freies Selbst bezeichnet und beinhaltet verschiedene Aspekte des Selbst, einschließlich Selbstachtung und sogar Selbstliebe. Dies kann als beeinflusst von Kant (Selbstachtung) und Aristoteles (Selbstliebe) interpretiert werden. Für Nietzsche kann die Wertschätzung ethischer Autonomie den Konflikt zwischen Liebe (Selbstliebe) und Gesetz (Selbstachtung) auflösen, der sich dann durch Erfahrungen der Selbstverantwortung in die Realität umsetzen lässt. Weil Nietzsche definiert, ein Gefühl der Freiheit mit der Verantwortung für das eigene Leben zu haben, können Freiheit und Selbstverantwortung sehr stark mit Autonomie verbunden sein.

Laut Piaget
Der Schweizer Philosoph Jean Piaget (1896-1980) glaubte, dass Autonomie von innen kommt und aus einer „freien Entscheidung“ resultiert. Es ist von innerem Wert und die Moral der Autonomie wird nicht nur akzeptiert, sondern ist obligatorisch. Wenn ein Versuch des sozialen Austauschs unternommen wird, ist es wechselseitig, ideal und natürlich, dass Autonomie besteht, unabhängig davon, warum die Zusammenarbeit mit anderen stattgefunden hat. Für Piaget kann der Begriff autonom verwendet werden, um die Idee zu erklären, dass Regeln selbst gewählt werden. Indem wir entscheiden, welche Regeln befolgt werden sollen oder nicht, bestimmen wir wiederum unser eigenes Verhalten.

Piaget untersuchte die kognitive Entwicklung von Kindern, indem er sie während ihrer Spiele und durch Interviews analysierte und unter anderem feststellte, dass der moralische Reifungsprozess der Kinder in zwei Phasen ablief, der ersten der Heteronomie und der zweiten der Autonomie:

Heteronomes Denken: Regeln sind objektiv und unveränderlich. Sie müssen wörtlich sein, weil die Behörde sie anordnet und nicht zu Ausnahmen oder Diskussionen passt. Grundlage der Regel ist die übergeordnete Behörde (Eltern, Erwachsene, Staat), die in keinem Fall die auferlegten oder erfüllten Regeln begründen sollte. Die bereitgestellten Pflichten werden als von sich selbst gegeben verstanden. Jede moralische Motivation und Stimmung ist durch das möglich, was man für richtig hält.

Autonomes Denken: Regeln sind das Produkt einer Vereinbarung und können daher geändert werden. Sie können interpretiert werden und passen zu Ausnahmen und Einwänden. Die Basis der Regel ist ihre eigene Akzeptanz, und ihre Bedeutung muss erklärt werden. Sanktionen müssen in einem angemessenen Verhältnis zur Abwesenheit stehen, vorausgesetzt, dass Straftaten manchmal ungestraft bleiben können, so dass eine kollektive Bestrafung inakzeptabel ist, wenn sie nicht schuldig ist. Die Umstände dürfen einen Schuldigen nicht bestrafen. Die erbrachten Pflichten sind von außen gegeben. Man folgt Regeln mechanisch, da es einfach eine Regel ist oder um eine Form der Bestrafung zu vermeiden.

Laut Kohlberg
Der amerikanische Psychologe Lawrence Kohlberg (1927-1987) setzt die Studien von Piaget fort. Seine Studien sammelten Informationen aus verschiedenen Breiten, um die kulturelle Variabilität zu beseitigen, und konzentrierten sich auf das moralische Denken und nicht so sehr auf das Verhalten oder seine Konsequenzen. Durch Interviews mit jugendlichen und jugendlichen Jungen, die versuchen sollten, „moralische Dilemmata“ zu lösen, entwickelte Kohlberg die Stadien der moralischen Entwicklung weiter. Die Antworten, die sie gaben, könnten eines von zwei Dingen sein. Entweder halten sie sich an ein bestimmtes Gesetz, eine bestimmte Autoritätsperson oder eine bestimmte Regel oder sie ergreifen Maßnahmen, die einem menschlichen Bedürfnis dienen, aber wiederum gegen diese bestimmte Regel oder diesen Befehl verstoßen.

Das beliebteste moralische Dilemma betraf die Frau eines Mannes, der sich aufgrund einer besonderen Krebsart dem Tod nähert. Weil das Medikament zu teuer war, um es selbst zu bekommen, und weil der Apotheker, der das Medikament entdeckte und verkaufte, kein Mitleid mit ihm hatte und nur Gewinne wollte, stahl er es. Kohlberg fragt diese jugendlichen und jugendlichen Jungen (10-, 13- und 16-Jährige), ob sie der Meinung sind, dass der Ehemann dies hätte tun sollen oder nicht. Abhängig von ihren Entscheidungen gaben sie Kohlberg daher Antworten auf tiefere Gründe und Gedanken und bestimmten, was sie als wichtig erachten. Dieser Wert bestimmte dann die „Struktur“ ihres moralischen Denkens.

Kohlberg legte drei Stufen der Moral fest, von denen jede in zwei Ebenen unterteilt ist. Sie werden im progressiven Sinne gelesen, dh höhere Ebenen weisen auf eine größere Autonomie hin.

Stufe 1: Vormoralische / vorkonventionelle Moral: Abhängig von den hedonistischen oder physischen Konsequenzen werden Standards erfüllt (oder nicht erfüllt).
[Stufe 0: Egozentrisches Urteil: Es gibt kein moralisches Konzept, das von individuellen Wünschen unabhängig ist, einschließlich eines Mangels an Konzept von Regeln oder Verpflichtungen.]
Stufe 1: Bestrafung-Gehorsam-Orientierung: Die Regel wird nur befolgt, um eine Bestrafung zu vermeiden. Physische Konsequenzen bestimmen Güte oder Schlechtigkeit, und Macht wird ohne Rücksicht auf den menschlichen oder moralischen Wert oder die Bedeutung dieser Konsequenzen fraglos aufgeschoben. Sorge ist für das Selbst.
Stufe 2: Instrumental-Relativistische Orientierung: Moral ist individualistisch und egozentrisch. Es findet ein Interessenaustausch statt, jedoch immer unter dem Gesichtspunkt, die persönlichen Bedürfnisse zu befriedigen. Elemente der Fairness und Gegenseitigkeit sind vorhanden, aber diese werden pragmatisch interpretiert, anstatt eine Erfahrung der Dankbarkeit oder Gerechtigkeit. Egozentrisch in der Natur, aber beginnend, die Fähigkeit zu integrieren, Dinge aus der Perspektive anderer zu sehen.

Stufe 2: Konventionelle Moral / Rollenkonformität: Regeln werden gemäß den festgelegten Konventionen einer Gesellschaft eingehalten.
Stufe 3: Gute Jungen-nette Mädchen-Orientierung: Moral wird in Übereinstimmung mit der stereotypen sozialen Rolle konzipiert. Es werden Regeln befolgt, um die Zustimmung der unmittelbaren Gruppe zu erhalten, und die richtigen Handlungen werden danach beurteilt, was anderen gefallen würde oder den Eindruck erwecken würde, dass man ein guter Mensch ist. Aktionen werden nach Absichten bewertet.
Stufe 4: Orientierung an Recht und Ordnung: Die Moral wird gemäß der Autorität des Systems oder den Bedürfnissen der sozialen Ordnung beurteilt. Gesetze und Ordnung haben Priorität.

Stufe 3: Postkonventionelle Moral / selbst akzeptierte moralische Prinzipien: Standards des moralischen Verhaltens werden verinnerlicht. Die Moral wird durch rationales Urteilsvermögen bestimmt, das sich aus einer bewussten Reflexion über die Anerkennung des Wertes des Individuums in einer konventionell etablierten Gesellschaft ergibt.
Stufe 5: Sozialvertragsorientierung: Es gibt individuelle Rechte und Standards, die rechtmäßig als universelle Grundwerte festgelegt wurden. Regeln werden durch Verfahren vereinbart und die Gesellschaft kommt durch kritische Prüfung zu einem Konsens, um das Allgemeinwohl zu fördern.
Stufe 6: Allgemeine Prinziporientierung: Abstrakte ethische Prinzipien werden zusätzlich zu gesellschaftlichen Regeln und Konventionen auf persönlicher Ebene befolgt. Universelle Prinzipien von Gerechtigkeit, Gegenseitigkeit, Gleichheit und Menschenwürde werden verinnerlicht, und wenn man diesen Idealen nicht gerecht wird, kommt es zu Schuldgefühlen oder Selbstverurteilung.

Entwicklung des Kindes
Autonomie in Kindheit und Jugend ist, wenn man sich als eigenständiges, selbstverwaltendes Individuum fühlen will. Zwischen dem 1. und 3. Lebensjahr, in der zweiten Phase von Eriksons und Freuds Entwicklungsstadien, ist die auftretende psychosoziale Krise Autonomie gegenüber Scham und Zweifel. Das bedeutende Ereignis, das in dieser Phase eintritt, ist, dass Kinder lernen müssen, autonom zu sein. Andernfalls kann das Kind an seinen eigenen Fähigkeiten zweifeln und sich schämen. Wenn ein Kind autonom wird, kann es neue Fähigkeiten erforschen und erwerben.

Autonomie hat zwei wichtige Aspekte, bei denen es eine emotionale Komponente gibt, bei der man sich mehr auf sich selbst als auf die Eltern verlässt, und eine Verhaltenskomponente, bei der man Entscheidungen unabhängig trifft, indem man sein Urteilsvermögen einsetzt. Die Arten der Kindererziehung beeinflussen die Entwicklung der Autonomie eines Kindes. Autoritative Kindererziehung ist der erfolgreichste Ansatz, bei dem die Eltern eine Autonomie gewähren, die ihrem Alter und ihren Fähigkeiten entspricht. Autonomie im Jugendalter ist eng mit ihrem Streben nach Identität verbunden. In der Jugend wirken Eltern und Gleichaltrige als Einflussfaktoren. Der Einfluss von Gleichaltrigen in der frühen Jugend kann dazu beitragen, dass der Prozess eines Jugendlichen allmählich autonomer wird, da er mit zunehmendem Alter weniger anfällig für Einfluss von Eltern oder Gleichaltrigen ist.

Kybernetik
Wenn von Autonomie im menschlichen Körper, Unternehmen oder System gesprochen wird, versteht es sich, dass dieser oder jener Teil davon oder eine bestimmte Funktion selbst für seine Regulierung verantwortlich ist. Dieses Konzept kann als „Selbstdurchsetzung des Gesetzes“ übersetzt werden.

Autonomie in der Technologie
Autonomie ist für ein Gerät oder eine Maschine die Zeit, in der es mit seinen Reserven und eigenen Kapazitäten arbeiten kann, entweder unter Verwendung seiner eigenen Energiequellen oder unter Verwendung von Energie aus der natürlichen Umgebung (Energy Solar) ohne Rückgriff an externe Energiequellen (Aufladen im Stromnetz oder Auftanken). Es wäre hier richtiger, von vorläufiger Selbstversorgung zu sprechen, sofern die Maschinen für eine bestimmte Zeit autark sein können – was die Definition von Selbstversorgung ist -, sich aber nicht nach den von ihnen selbst festgelegten Regeln regieren.

Autonomie in der Religion
Im Christentum manifestiert sich Autonomie als teilweise Selbstverwaltung auf verschiedenen Ebenen der Kirchenverwaltung. In der Geschichte des Christentums gab es zwei grundlegende Arten von Autonomie. Einige wichtige Pfarreien und Klöster haben besondere autonome Rechte und Privilegien erhalten, und das bekannteste Beispiel für klösterliche Autonomie ist die berühmte ostorthodoxe Klostergemeinschaft auf dem Berg Athos in Griechenland. Andererseits umfasste die administrative Autonomie ganzer kirchlicher Provinzen im Laufe der Geschichte verschiedene Grade der internen Selbstverwaltung.

In der Ekklesiologie der ostorthodoxen Kirchen gibt es eine klare Unterscheidung zwischen Autonomie und Autozephalie, da autokephale Kirchen vollständige Selbstverwaltung und Unabhängigkeit haben, während jede autonome Kirche einer autokephalen Kirche unterliegt, die ein gewisses Maß an interner Selbstverwaltung aufweist. Da jede autonome Kirche ihren eigenen historischen Weg zur kirchlichen Autonomie hatte, gibt es erhebliche Unterschiede zwischen verschiedenen autonomen Kirchen hinsichtlich ihres besonderen Grads an Selbstverwaltung. Zum Beispiel können autonome Kirchen ihre höchsten Bischöfe, wie einen Erzbischof oder eine Metropole, vom Patriarchen der Mutterkirche, von der sie ihre Autonomie erhalten haben, ernannt oder bestätigt bekommen, aber im Allgemeinen bleiben sie in vielen anderen selbstverwaltet respektiert.

In der Geschichte des westlichen Christentums war die Frage der kirchlichen Autonomie auch eine der wichtigsten Fragen, insbesondere in den ersten Jahrhunderten des Christentums, da verschiedene Erzbischöfe und Metropoliten in Westeuropa häufig gegen zentralisierende Tendenzen der Kirche von Rom waren. Ab 2019 umfasst die katholische Kirche 24 autonome (sui iuris) Kirchen in Gemeinschaft mit dem Heiligen Stuhl. Verschiedene Konfessionen protestantischer Kirchen haben normalerweise eine dezentralere Macht, und Kirchen können autonom sein und somit ihre eigenen Regeln oder Regierungsgesetze auf nationaler, lokaler oder sogar individueller Ebene haben.

Sartre bringt das Konzept des kartesischen Gottes, völlig frei und autonom zu sein. Er erklärt, dass die Existenz der Essenz vorausgeht, wobei Gott der Schöpfer der Essenzen, der ewigen Wahrheiten und des göttlichen Willens ist. Diese reine Freiheit Gottes bezieht sich auf die Freiheit und Autonomie des Menschen; wo ein Mensch nicht bereits bestehenden Ideen und Werten ausgesetzt ist.

Nach der ersten Änderung ist die Bundesregierung in den Vereinigten Staaten von Amerika beim Bau einer nationalen Kirche eingeschränkt. Dies ist darauf zurückzuführen, dass der erste Änderungsantrag die Freiheit der Menschen anerkennt, ihren Glauben gemäß ihrem eigenen Glauben anzubeten. Zum Beispiel hat die amerikanische Regierung die Kirche aufgrund der historischen Auswirkungen der Kirchen auf die Politik und ihrer Autorität auf die Öffentlichkeit aus ihrem „Autoritätsbereich“ entfernt. Dies war der Beginn des Deaktivierungsprozesses. Die protestantischen Kirchen in den Vereinigten Staaten hatten im neunzehnten Jahrhundert einen bedeutenden Einfluss auf die amerikanische Kultur, als sie die Einrichtung von Schulen, Krankenhäusern, Waisenhäusern, Colleges, Magazinen usw. organisierten. Dies hat den berühmten, jedoch falsch interpretierten Begriff der Trennung von Kirche und Staat zur Sprache gebracht.

Der Deaktivierungsprozess
Die erste Auflösung begann mit der Einführung der Bill of Rights. Im 20. Jahrhundert wurden die amerikanischen Kirchen aufgrund der großen Depression der 1930er Jahre und der Vollendung des Zweiten Weltkriegs wiederbelebt. Speziell die protestantischen Kirchen. Dies war der Beginn der zweiten Auflösung, als die Kirchen wieder populär geworden waren, aber keine gesetzgebende Gewalt besaßen. Einer der Gründe, warum die Kirchen anwesend und beliebt wurden, war der Babyboom, als Soldaten aus dem Zweiten Weltkrieg zurückkehrten und ihre Familien gründeten. Der große Zustrom von Neugeborenen gab den Kirchen eine neue Welle von Anhängern. Diese Anhänger vertraten jedoch nicht die gleichen Überzeugungen wie ihre Eltern und führten zu den politischen und religiösen Revolutionen der 1960er Jahre.

In den 1960er Jahren führte der Zusammenbruch der religiösen und kulturellen Mitte zur dritten Auflösung. Religion wurde für den Einzelnen wichtiger und für die Gemeinschaft weniger wichtig. Die durch diese Revolutionen hervorgerufenen Änderungen haben die persönliche Autonomie des Einzelnen erheblich erhöht, da es an strukturellen Einschränkungen mangelt, die ihm zusätzliche Wahlfreiheit geben. Dieses Konzept ist als „neuer Freiwilligendienst“ bekannt, bei dem der Einzelne die freie Wahl hat, wie er religiös sein soll und ob er religiös sein soll oder nicht.

Autonomie in der Medizin
Im medizinischen Kontext wird die Achtung der persönlichen Autonomie eines Patienten als eines von vielen ethischen Grundprinzipien in der Medizin angesehen. Autonomie kann als die Fähigkeit der Person definiert werden, ihre eigenen Entscheidungen zu treffen. Dieses Vertrauen in die Autonomie ist die zentrale Voraussetzung für das Konzept der Einwilligung nach Aufklärung und der gemeinsamen Entscheidungsfindung. Diese Idee wurde in den letzten 50 Jahren entwickelt, obwohl sie für die heutige medizinische Praxis als wesentlich angesehen wird. Laut Tom Beauchamp und James Childress (in Principles of Biomedical Ethics) wurden in den Nürnberger Studien detaillierte Berichte über schrecklich ausbeuterische medizinische „Experimente“ veröffentlicht, die die körperliche Unversehrtheit und die persönliche Autonomie der Probanden verletzten. Diese Vorfälle führten zu Forderungen nach Schutzmaßnahmen in der medizinischen Forschung. wie der Nürnberger Kodex, der die Bedeutung der freiwilligen Teilnahme an der medizinischen Forschung betonte. Es wird angenommen, dass der Nürnberger Kodex als Voraussetzung für viele aktuelle Dokumente zur Forschungsethik diente.

Die Achtung der Autonomie wurde in die Gesundheitsversorgung einbezogen, und den Patienten konnte gestattet werden, persönliche Entscheidungen über die Gesundheitsleistungen zu treffen, die sie erhalten. Insbesondere hat die Autonomie verschiedene Aspekte sowie Herausforderungen, die sich auf das Gesundheitswesen auswirken. Die Art und Weise, wie ein Patient behandelt wird, kann die Autonomie eines Patienten untergraben oder unterstützen, und aus diesem Grund wird die Art und Weise, wie ein Patient kommuniziert wird, sehr wichtig. Eine gute Beziehung zwischen einem Patienten und einem Heilpraktiker muss genau definiert sein, um sicherzustellen, dass die Autonomie eines Patienten respektiert wird. Wie in jeder anderen Lebenssituation möchte ein Patient nicht unter der Kontrolle einer anderen Person stehen. Der Versuch, die Achtung der Autonomie des Patienten zu betonen, ergab sich aus den Schwachstellen, auf die in Bezug auf die Autonomie hingewiesen wurde.

Autonomie gilt jedoch nicht nur im Forschungskontext. Benutzer des Gesundheitssystems haben das Recht, unter Achtung ihrer Autonomie behandelt zu werden, anstatt vom Arzt dominiert zu werden. Dies wird als Bevormundung bezeichnet. Während Paternalismus insgesamt gut für den Patienten sein soll, kann dies sehr leicht die Autonomie beeinträchtigen. Durch die therapeutische Beziehung kann ein nachdenklicher Dialog zwischen dem Klienten und dem Arzt zu besseren Ergebnissen für den Klienten führen, da er oder sie eher an der Entscheidungsfindung beteiligt ist.

Es gibt viele verschiedene Definitionen von Autonomie, von denen viele den Einzelnen in einen sozialen Kontext stellen. Siehe auch: Beziehungsautonomie, die darauf hindeutet, dass eine Person durch ihre Beziehungen zu anderen definiert wird, und „unterstützte Autonomie“, die darauf hinweist, dass es unter bestimmten Umständen erforderlich sein kann, die Autonomie der Person kurzfristig vorübergehend zu gefährden, um sie zu bewahren ihre Autonomie auf lange Sicht. Andere Definitionen der Autonomie stellen sich die Person als ein geschlossenes und autarkes Wesen vor, dessen Rechte unter keinen Umständen beeinträchtigt werden sollten.

Es gibt auch unterschiedliche Ansichten darüber, ob moderne Gesundheitssysteme zu einer größeren Patientenautonomie oder einem paternalistischeren Ansatz übergehen sollten. Zum Beispiel gibt es solche Argumente, die darauf hindeuten, dass die derzeit praktizierte Patientenautonomie von Mängeln wie falschen Vorstellungen von Behandlung und kulturellen Unterschieden geplagt wird und dass die Gesundheitssysteme aufgrund ihres Fachwissens zu einer stärkeren Bevormundung des Arztes übergehen sollten. Andererseits deuten andere Ansätze darauf hin, dass lediglich das Beziehungsverständnis zwischen Patienten und Heilpraktikern verbessert werden muss, um die Autonomie der Patienten zu verbessern.

Ein Argument für eine größere Patientenautonomie und ihre Vorteile ist Dave de Bronkart, der der Ansicht ist, dass Patienten im Zeitalter des technologischen Fortschritts in der Lage sind, einen Großteil ihrer Forschung zu medizinischen Themen von zu Hause aus zu betreiben. Laut de Bronkart trägt dies dazu bei, bessere Diskussionen zwischen Patienten und Ärzten während Krankenhausbesuchen zu fördern und letztendlich die Arbeitsbelastung der Ärzte zu verringern. deBronkart argumentiert, dass dies zu einer stärkeren Patientenermächtigung und einem besser informierten Gesundheitssystem führt. Im Gegensatz zu dieser Ansicht können technologische Fortschritte manchmal als ungünstiger Weg zur Förderung der Patientenautonomie angesehen werden. Zum Beispiel werden von Greaney et al.

Um die Autonomie des Patienten zu erhöhen, wird möglicherweise nicht gefördert, was für den Patienten am besten ist. In diesem Argument wird im Gegensatz zu deBronkart die derzeitige Wahrnehmung der Patientenautonomie die Vorteile der individuellen Autonomie übermäßig überbieten und ist nicht der am besten geeignete Weg, um Patienten zu behandeln. Stattdessen sollte eine umfassendere Form der Autonomie implementiert werden, die relationale Autonomie, die sowohl diejenigen berücksichtigt, die dem Patienten als auch dem Arzt nahe stehen. Diese unterschiedlichen Konzepte der Autonomie können problematisch sein, da der amtierende Arzt vor der Entscheidung steht, welches Konzept er in seine klinische Praxis umsetzen wird.

Die Autonomie ist unterschiedlich und einige Patienten empfinden sie als überwältigend, insbesondere Minderjährige in Notsituationen. Probleme treten in Notfallsituationen auf, in denen möglicherweise keine Zeit bleibt, das Prinzip der Patientenautonomie zu berücksichtigen. In diesen Situationen sind verschiedene ethische Herausforderungen zu bewältigen, wenn die Zeit kritisch ist und das Bewusstsein des Patienten eingeschränkt sein kann. In solchen Situationen, in denen die Einwilligung nach Aufklärung beeinträchtigt werden kann, bewertet der arbeitende Arzt jeden Einzelfall, um die professionellste und ethisch fundierteste Entscheidung zu treffen. Beispielsweise wird angenommen, dass Neurochirurgen in solchen Situationen im Allgemeinen alles tun sollten, um die Autonomie der Patienten zu respektieren.

In der Situation, in der ein Patient keine autonome Entscheidung treffen kann, sollte der Neurochirurg mit dem Ersatzentscheider diskutieren, um den Entscheidungsprozess zu unterstützen. Die Durchführung einer Operation an einem Patienten ohne Einverständniserklärung wird im Allgemeinen nur dann als ethisch gerechtfertigt angesehen, wenn der Neurochirurg und sein Team dem Patienten die Fähigkeit geben, keine autonomen Entscheidungen zu treffen. Wenn der Patient in der Lage ist, eine autonome Entscheidung zu treffen, sind diese Situationen im Allgemeinen weniger ethisch anstrengend, da die Entscheidung normalerweise respektiert wird.

Es ist wichtig zu beachten, dass nicht jeder Patient in der Lage ist, eine autonome Entscheidung zu treffen. Eine häufig vorgeschlagene Frage ist beispielsweise, in welchem ​​Alter Kinder an Behandlungsentscheidungen teilnehmen sollten. Diese Frage stellt sich, wenn sich Kinder unterschiedlich entwickeln, was es schwierig macht, ein Standardalter festzulegen, in dem Kinder autonomer werden sollten. Diejenigen, die nicht in der Lage sind, Entscheidungen zu treffen, stellen die Ärzte vor eine Herausforderung, da es schwierig wird, die Fähigkeit eines Patienten zu bestimmen, eine Entscheidung zu treffen. Bis zu einem gewissen Grad wurde gesagt, dass die Betonung der Autonomie im Gesundheitswesen die Praxis der Heilpraktiker untergraben hat, um die Gesundheit ihrer Patienten nach Bedarf zu verbessern.

Das Szenario hat zu Spannungen in der Beziehung zwischen einem Patienten und einem Arzt geführt. Dies liegt daran, dass ein Arzt, so sehr er einen Patienten am Leiden hindern möchte, dennoch die Autonomie respektieren muss. Wohltätigkeit ist ein Prinzip, das es Ärzten ermöglicht, verantwortungsbewusst in ihrer Praxis und im besten Interesse ihrer Patienten zu handeln, was das Übersehen der Autonomie beinhalten kann. Die Kluft zwischen einem Patienten und einem Arzt hat jedoch zu Problemen geführt, da sich die Patienten in anderen Fällen darüber beschwert haben, nicht ausreichend informiert zu sein.

Die sieben Elemente der Einwilligung nach Aufklärung (wie von Beauchamp und Childress definiert) umfassen Schwellenelemente (Kompetenz und Freiwilligkeit), Informationselemente (Offenlegung, Empfehlung und Verständnis) und Einwilligungselemente (Entscheidung und Genehmigung). Einige Philosophen wie Harry Frankfurt halten die Kriterien von Beauchamp und Childress für unzureichend. Sie behaupten, dass eine Handlung nur dann als autonom angesehen werden kann, wenn sie die Fähigkeit beinhaltet, bei absichtlichem Handeln Werte höherer Ordnung über Wünsche zu bilden. Dies bedeutet, dass Patienten möglicherweise ihre Situation und ihre Entscheidungen verstehen, aber nicht autonom wären, wenn der Patient nicht in der Lage wäre, Werturteile über ihre Gründe für die Wahl von Behandlungsoptionen zu bilden, die er nicht autonom handeln würde.

Unter bestimmten Umständen kann die Regierung das Recht haben, das Recht auf körperliche Unversehrtheit vorübergehend außer Kraft zu setzen, um das Leben und das Wohlergehen der Person zu erhalten. Eine solche Aktion kann unter Verwendung des Prinzips der „unterstützten Autonomie“ beschrieben werden, eines Konzepts, das entwickelt wurde, um einzigartige Situationen in der psychischen Gesundheit zu beschreiben (Beispiele sind die Zwangsernährung einer Person, die an der Essstörung Anorexia nervosa stirbt, oder die vorübergehende Behandlung einer Person Leben mit einer psychotischen Störung mit Antipsychotika). Das Prinzip der unterstützten Autonomie ist zwar umstritten, entspricht jedoch der Rolle der Regierung, das Leben und die Freiheit ihrer Bürger zu schützen. Terrence F. Ackerman hat Probleme mit diesen Situationen hervorgehoben,

Seit den 1960er Jahren wurde versucht, die Autonomie der Patienten zu erhöhen, einschließlich der Anforderung, dass Ärzte während ihrer Zeit an der medizinischen Fakultät Bioethikkurse belegen müssen. Trotz des großen Engagements zur Förderung der Patientenautonomie ist das Misstrauen der Öffentlichkeit gegenüber der Medizin in den Industrieländern bestehen geblieben. Onora O’Neill hat diesen Mangel an Vertrauen medizinischen Einrichtungen und Fachleuten zugeschrieben, die Maßnahmen einführen, die sich selbst und nicht dem Patienten zugute kommen. O’Neill behauptet, dass dieser Fokus auf die Förderung der Autonomie auf Kosten von Themen wie der Verteilung von Gesundheitsressourcen und der öffentlichen Gesundheit gegangen sei. k

Ein Vorschlag zur Erhöhung der Patientenautonomie ist der Einsatz von Support-Mitarbeitern. Einsatz von Hilfspersonal, einschließlich Arzthelfern, Arzthelfern, Krankenpflegern, Krankenschwestern und anderem Personal, das die Interessen der Patienten und eine bessere Patientenversorgung fördern kann. Insbesondere Krankenschwestern können die Überzeugungen und Werte der Patienten kennenlernen, um die Einwilligung nach Aufklärung zu erhöhen und den Patienten möglicherweise durch Logik und Vernunft davon zu überzeugen, einen bestimmten Behandlungsplan zu unterhalten. Dies würde sowohl Autonomie als auch Wohltätigkeit fördern und gleichzeitig die Integrität des Arztes erhalten. Darüber hinaus macht Humphreys geltend, dass Krankenschwestern im Rahmen ihrer Tätigkeit berufliche Autonomie haben sollten (35-37). Humphreys argumentiert, dass wenn Krankenschwestern ihre berufliche Autonomie mehr ausüben, die Autonomie der Patienten zunehmen wird (35-37).

Autonomie in der Bildung
Bildung und Sozialisation sollen es Jugendlichen ermöglichen, sich von ihren Eltern zu emanzipieren, damit sie ein Leben in Unabhängigkeit und Freiheit führen können. Dieses Ziel muss nicht unbedingt erreicht werden. Vielmehr kann der Bildungsprozess so strukturiert werden, dass er das Ziel (weitgehend) verfehlt. P. Köck und H. Ott betonen, dass „autonome Bildung“ auf „Unabhängigkeit des Kindes von sozialen Einflüssen“ abzielt. Die einzige Funktion der Eltern besteht darin, „negative Umwelteinflüsse“ vom Kind fernzuhalten. Letzteres ist eine enge Sicht der Tatsachen, wenn man bedenkt, dass zuerst die Autonomie gegenüber den Eltern erreicht werden muss.

Die mangelnde Autonomie eines jungen Erwachsenen kann auf ein (vorheriges) Beziehungsproblem mit dem Elternteil zurückzuführen sein.
Dies kann auch auf den situativen Kontext zurückzuführen sein, der die Autonomie grundsätzlich behindert oder verhindert. Dies kann auch soziale Einschränkungen oder Einschränkungen (wirtschaftliche Situation, Notsituation usw.) umfassen. Der (psychologische) Druck der Situation auf den Einzelnen kann die Autonomie erschweren oder unmöglich machen.
Ein Mangel an Fähigkeiten (der gebildeten Person) kann auch dazu führen, dass Autonomie nicht gewünscht oder nicht angestrebt wird. (Zum Beispiel kann die Abhängigkeit von den Eltern bequemer sein als die Selbstständigkeit, die die letzten intellektuellen und emotionalen Reserven erfordert.)
Soziale und politische Verantwortung hängt damit zusammen, dass Mitglieder einer sozialen Gruppe oder Gesellschaft die Möglichkeit haben, autonom zu handeln.

Aus diesen Gründen werfen Elternprozesse immer wieder die Frage auf, welche Elternmethoden die Bildung einer autonomen Persönlichkeit fördern können. Dies muss eine der zentralen Fragen der am Bildungsprozess beteiligten Personen sein.

Es besteht weitgehend Einigkeit darüber, dass zu starre Steuerungsmethoden für die Erziehung ungeeignet sind, obwohl der Teufel im Detail steckt: Wie viel Kontrolle ist bei Erziehungsprozessen erforderlich? Wie viel Lenkung kann in Bezug auf Autonomie implementiert werden? Wie viel Unabhängigkeit (Autonomie) ist z. B. in Gruppen möglich und akzeptabel?

Andererseits ist auch klar, dass extreme Strenge und Unabhängigkeit in der Bildung Abhängigkeiten schaffen, die die Entstehung von Autonomie verhindern.

Letztendlich kann Autonomie im Sinne der Pädagogik nur von denen entwickelt oder bekämpft werden, die sie wollen oder wollen. In dieser Hinsicht spielt die eigene Dynamik des Individuums (Entwicklungspsychologie und R. Oerter, L. Montada, 2002) eine wichtige Rolle bei der Erreichung der Autonomie. Ein Kind oder ein Jugendlicher ohne ein starkes Gefühl der Autonomie kann es schwierig finden, sich von seinen Eltern zu emanzipieren.

Selbst der verantwortungsvollste Erzieher hat eine zweideutige Beziehung zur Autonomie des Schülers, da die tatsächliche Autonomie des Jugendlichen emotional als Verlust und rational als Risiko für das Kind bewertet werden kann, ganz abgesehen von den Risiken, die sich aus den ersten Erfahrungen des Kindes mit der Autonomie oder dem Kind ergeben kann sich den Jugendlichen ergeben

Internationales Menschenrechtsgesetz
Nach dem Zweiten Weltkrieg gab es einen Druck für die internationalen Menschenrechte, der in vielen Wellen kam. Autonomie als grundlegendes Menschenrecht bildete den Baustein am Anfang dieser Schichten neben der Freiheit. In den Allgemeinen Menschenrechtserklärungen von 1948 wurde in Artikel 22 die Autonomie oder das gesetzlich geschützte Recht auf individuelle Selbstbestimmung erwähnt.

Dokumente wie die Erklärung der Vereinten Nationen zu den Rechten indigener Völker bekräftigen das Völkerrecht in Bezug auf die Menschenrechte erneut, da diese Gesetze bereits vorhanden waren. Sie sind jedoch auch dafür verantwortlich, dass die Gesetze in Bezug auf Autonomie, Kultur und Integrität hervorgehoben werden und Landrechte werden in einem indigenen Kontext geschaffen, indem ihren historischen und zeitgenössischen Ereignissen besondere Aufmerksamkeit geschenkt wird

Die Erklärung der Vereinten Nationen zu den Rechten indigener Völker, Artikel 3, auch durch internationales Recht, sieht in ihrem dritten Artikel Menschenrechte für indigene Individuen vor, indem sie ihnen ein Recht auf Selbstbestimmung einräumen, dh sie haben alle Freiheiten, ihren politischen Status zu wählen, und sind in der Lage ihren wirtschaftlichen, sozialen und kulturellen Status in der Gesellschaft zu verbessern, indem man ihn entwickelt. Ein weiteres Beispiel hierfür ist Artikel 4 desselben Dokuments, der ihnen autonome Rechte in Bezug auf ihre internen oder lokalen Angelegenheiten einräumt und wie sie sich selbst finanzieren können, um sich selbst regieren zu können.

Minderheiten in Ländern sind ebenfalls durch internationales Recht geschützt. Der 27. Artikel des Internationalen Pakts der Vereinten Nationen über bürgerliche und politische Rechte oder des ICCPR sieht vor, dass diese Personen ihre eigene Kultur genießen oder ihre Sprache verwenden können. Minderheiten auf diese Weise sind laut Dokument Personen aus ethnischen religiösen oder sprachlichen Gruppen.

Der Europäische Gerichtshof für Menschenrechte ist ein internationaler Gerichtshof, der im Auftrag der Europäischen Menschenrechtskonventionen eingerichtet wurde. Wenn es um Autonomie geht, haben sie dies jedoch nicht ausdrücklich angegeben, wenn es um die Rechte des Einzelnen geht. Der aktuelle Artikel 8 hat Abhilfe geschaffen, als es im Fall Pretty gegen die Vereinten Nationen im Jahr 2002 um assistierten Selbstmord ging, bei dem Autonomie als gesetzliches Recht genutzt wurde. Hier wurde die Autonomie ausgezeichnet und ihre Reichweite in das Recht markiert. Damit wurde sie zur Grundlage für einen Präzedenzfall für die Rechtsprechung des Europäischen Gerichtshofs für Menschenrechte

Die Yogyakarta-Prinzipien, ein Dokument, das im internationalen Menschenrechtsrecht keine verbindliche Wirkung hat, behaupten, dass „Selbstbestimmung“, die als Bedeutung der Autonomie in eigenen Angelegenheiten, einschließlich Einverständniserklärung oder sexueller und reproduktiver Rechte, verwendet wird, ein wesentlicher Bestandteil der Selbstdefinition oder des Geschlechts ist Identität und lehnte jegliche medizinischen Verfahren als Voraussetzung für die rechtliche Anerkennung der Geschlechtsidentität von Transgender ab. Wenn dies letztendlich von der internationalen Gemeinschaft in einem Vertrag akzeptiert würde, würde dies diese Ideen zu Menschenrechten im Gesetz machen. Die Konvention über die Rechte von Menschen mit Behinderungen definiert Autonomie auch als Grundsätze der Rechte einer Person mit Behinderung, einschließlich „der Freiheit, eigene Entscheidungen zu treffen, und der Unabhängigkeit von Personen“.

Promi-Kultur zur Autonomie von Teenagern
Eine von David C. Giles und John Maltby durchgeführte Studie ergab, dass nach dem Entfernen von altersbeeinflussenden Faktoren eine hohe emotionale Autonomie ein signifikanter Prädiktor für das Interesse von Prominenten sowie eine hohe Bindung an Gleichaltrige mit einer geringen Bindung an Eltern war. Es wurde festgestellt, dass Muster von intensivem persönlichem Interesse an Prominenten mit einem geringen Maß an Nähe und Sicherheit verbunden sind. Darüber hinaus deuteten die Ergebnisse darauf hin, dass sich Erwachsene mit einer sekundären Gruppe von Pseudofreunden während der Entwicklung aufgrund der elterlichen Bindung normalerweise nur auf eine bestimmte Berühmtheit konzentrieren, was auf Schwierigkeiten bei diesem Übergang zurückzuführen sein könnte.

Verschiedene Anwendungen
Beim Rechnen kann ein autonomes Peripheriegerät bei ausgeschaltetem Computer verwendet werden.
In der Selbstbestimmungstheorie in der Psychologie bezieht sich Autonomie auf „Autonomieunterstützung versus Kontrolle“, „die Hypothese, dass autonome soziale Kontexte dazu neigen, selbstbestimmte Motivation, gesunde Entwicklung und optimales Funktionieren zu fördern“.
In der mathematischen Analyse wird eine gewöhnliche Differentialgleichung als autonom bezeichnet, wenn sie zeitunabhängig ist.
In der Linguistik ist eine autonome Sprache eine Sprache, die von anderen Sprachen unabhängig ist, beispielsweise eine Standardsorte, Grammatikbücher, Wörterbücher oder Literatur usw.
In der Robotik bedeutet „Autonomie Unabhängigkeit von Kontrolle. Diese Charakterisierung impliziert, dass Autonomie eine Eigenschaft der Beziehung zwischen zwei Agenten im Fall der Robotik der Beziehungen zwischen dem Konstrukteur und dem autonomen Roboter ist. Autarkie, Lage, Lernen oder Entwicklung und Evolution erhöhen den Grad der Autonomie eines Agenten. „, so Rolf Pfeifer.
In der Raumfahrt kann sich Autonomie auch auf bemannte Missionen beziehen, die ohne Kontrolle durch Bodenkontrolleure betrieben werden.
In der Wirtschaft ist autonomer Konsum Konsumausgaben, wenn das Einkommensniveau Null ist, wodurch Ausgaben unabhängig vom Einkommen gemacht werden.
In der Politik sind autonome Gebiete Staaten, die die territoriale Integrität im Gegensatz zu ethnischen oder indigenen Forderungen nach Selbstbestimmung oder Unabhängigkeit (Souveränität) bewahren wollen.
Im Anti-Establishment-Aktivismus ist ein autonomer Raum ein anderer Name für ein nichtstaatliches soziales Zentrum oder einen freien Raum (für die Interaktion mit der Gemeinschaft).
In der Sozialpsychologie ist Autonomie ein Persönlichkeitsmerkmal, das durch einen Fokus auf persönliche Leistung, Unabhängigkeit und eine Präferenz für Einsamkeit gekennzeichnet ist und oft als Gegenteil von Soziotropie bezeichnet wird.

Grenzen der Autonomie
Autonomie kann eingeschränkt werden. Zum Beispiel können Organisationen der Zivilgesellschaft durch Behinderungen ein gewisses Maß an Autonomie erreichen, obwohl sie in formellen bürokratischen und administrativen Regimen eingebettet sind. Gemeinschaftspartner können daher eine Hybridisierung von Gefangennahme und Autonomie – oder eine Gegenseitigkeit – annehmen, die eher nuanciert ist.

Halbautonomie
Der Begriff Halbautonomie (geprägt mit dem Präfix Semi- / „Hälfte“) bezeichnet eine teilweise oder begrenzte Autonomie. Als relativer Begriff wird er normalerweise auf verschiedene halbautonome Entitäten oder Prozesse angewendet, die im Vergleich zu anderen vollständig autonomen Entitäten oder Prozessen wesentlich oder funktional eingeschränkt sind.

Quasi-Autonomie
Der Begriff Quasi-Autonomie (geprägt mit dem Präfix quasi- / „ähnlich“ oder „erscheinend“) bezeichnet formal erworbene oder proklamierte, aber funktional begrenzte oder eingeschränkte Autonomie. Als beschreibender Begriff wird er normalerweise auf verschiedene quasi autonome Entitäten oder Prozesse angewendet, die formal als autonom bezeichnet oder gekennzeichnet sind, aber in Wirklichkeit funktional abhängig bleiben oder von einer anderen Entität oder einem anderen Prozess beeinflusst werden. Ein Beispiel für eine solche Verwendung des Begriffs ist die gemeinsame Bezeichnung für quasi autonome Nichtregierungsorganisationen.

Kategorien
Ästhetik

Musikalische Ästhetik

Die Ästhetik der Musik ist ein Zweig der Philosophie, der sich mit der Natur von Kunst, Schönheit und Geschmack in der Musik sowie mit der Schaffung oder Wertschätzung von Schönheit in der Musik befasst. Musikästhetik als philosophische Disziplin ist Teil des Denkens über Musik mit dem spezifischen Bezugspunkt der Reflexion und ästhetischen Erfahrung musikalischer Werke und Prozesse. Die Musikästhetik untersucht verschiedene ästhetische Aspekte der Musik genau als eine sehr spezifische Kunstform, die eine sehr spezielle Analyse der dialektischen Beziehung der allgemeinen Gesetze der sensorisch geformten Wahrnehmung der Realität mit den einen oder anderen spezifischen Merkmalen und Mustern der Musiksprache als beinhaltet der Operator von „Klangbedeutungen“.

Das Thema und die Methoden musikästhetischer Überlegungen variieren. In der vormodernen Tradition erforschte die Ästhetik der Musik oder der Musikästhetik die mathematischen und kosmologischen Dimensionen der rhythmischen und harmonischen Organisation. Im achtzehnten Jahrhundert verlagerte sich der Fokus auf die Erfahrung des Hörens von Musik und damit auf Fragen nach ihrer Schönheit und ihrem menschlichen Genuss (Plaisir und Renaissance) von Musik. Der Ursprung dieses philosophischen Wandels wird manchmal Baumgarten im 18. Jahrhundert zugeschrieben, gefolgt von Kant.

Ästhetik ist eine Unterdisziplin der Philosophie. Im 20. Jahrhundert leisteten Peter Kivy, Jerrold Levinson, Roger Scruton und Stephen Davies wichtige Beiträge zur Ästhetik der Musik. Viele Musiker, Musikkritiker und andere Nicht-Philosophen haben jedoch zur Ästhetik der Musik beigetragen. Im 19. Jahrhundert kam es zwischen dem Musikkritiker und Musikwissenschaftler Eduard Hanslick und dem Komponisten Richard Wagner zu einer bedeutenden Debatte darüber, ob Instrumentalmusik dem Hörer Emotionen vermitteln kann. Wagner und seine Schüler argumentierten, dass Instrumentalmusik Emotionen und Bilder vermitteln könne; Komponisten, die diesen Glauben vertraten, schrieben instrumentale Tongedichte, die versuchten, mit Instrumentalmusik eine Geschichte zu erzählen oder eine Landschaft darzustellen.

Seit der Antike wurde angenommen, dass Musik die Fähigkeit hat, unsere Emotionen, unseren Intellekt und unsere Psychologie zu beeinflussen. es kann unsere Einsamkeit lindern oder unsere Leidenschaften anregen. Der antike griechische Philosoph Platon schlägt in der Republik vor, dass Musik eine direkte Wirkung auf die Seele hat. Daher schlägt er vor, dass Musik im idealen Regime vom Staat streng reguliert wird (Buch VII). In der Ästhetik der Musik gab es eine starke Tendenz, die überragende Bedeutung der Kompositionsstruktur hervorzuheben. Andere Themen, die die Ästhetik der Musik betreffen, sind Lyrik, Harmonie, Hypnose, Emotionalität, zeitliche Dynamik, Resonanz, Verspieltheit und Farbe (siehe auch musikalische Entwicklung).

Wissenschaftliche Spezifikation
Gegenwärtig wird „musikalische Ästhetik“ als eine wissenschaftliche Disziplin verstanden, die in ihrer allgemeinen Forschungsrichtung nahe an den Fachattributen der Musikphilosophie liegt, sich jedoch in ihrer methodischen Spezifität von letzteren unterscheidet: Wenn die Musikphilosophie eine der Disziplinen ist Zweige der Ästhetik und befasst sich hauptsächlich mit der Lösung von Problemen mit ontologischem, erkenntnistheoretischem und axiologischem Charakter. Dann ist die musikalische Ästhetik viel mehr zur Lösung rein musikwissenschaftlicher Probleme erforderlich und sollte daher frei und kompetent mit spezifischen (einschließlich der komplexesten) wissenschaftlichen Konzepten arbeiten aus dem Bereich der Musiktheorie.

Und schon aufgrund ihrer methodischen Ausrichtung sollte die Musikästhetik als spezialisierte wissenschaftliche Disziplin speziell dem Bereich der Musikwissenschaft zugeordnet werden.

Natürlich bleibt eine solche Argumentation auch dann relevant, wenn man die musikalische Ästhetik mit zwei anderen interdisziplinären Disziplinen in der Nähe vergleicht – der Musiksoziologie und der Musikpsychologie.

Geschichte
Das Thema der Musikästhetik als solches wurde in allen Phasen der Entwicklung der Musikkunst berücksichtigt, und die tiefen Wurzeln der Musikästhetik reichen bis in die Frühantike zurück, wo die von Pythagoras, Platon und Aristoteles vorgeschlagenen ästhetischen Wertkriterien der Musik in Verbindung gebracht wurden die normativen Strukturen von Intervallen, Modi, Rhythmen usw. als Spiegelbild der kosmischen Harmonie und der wichtigsten ethischen (ethischen) Eigenschaften des Menschen.

Uralt
Auch wenn der Begriff nicht vor dem 18. Jahrhundert verwendet wurde, haben die Menschen immer über ihre intellektuellen Produkte nachgedacht, einschließlich der Musik, die sie geschaffen haben. Musik und ihre Wirkungen spielen oft eine wichtige Rolle in den Mythen der Antike, wie im Mythos des Orpheus. Musik hat in der Philosophie der Pythagoreer eine besondere Bedeutung: Harmonie und Zahl waren die Grundprinzipien des Seins, der Musik und ihrer Intervallbeziehungen als Paradigma dieser allumfassenden Ordnung.

Für Platon ist Musik in seinem Dialog „Symposion“ als Technik (im Sinne künstlerischer und manueller Tätigkeit) nur ein Schritt zum Wissen der Wesen, weil sie die Liebe zum Sinnlich Schönen provozieren kann. In Platons Politeia (engl. „The State“) wird Musik als Instrument für die Bildung von Mitgliedern der Gemeinschaft angesehen, unterliegt jedoch als solche engen Grenzen in Inhalt und Ausführung. Auch bei Aristoteles ist Musik in erster Linie ein Mittel zur Beeinflussung von Charakter und Seele: Da das Eidos (der Archetyp) der Kunst in der Seele des Schöpfers liegt, ist die Mimesis (Nachahmung) in Kunstwerken mit menschlichen Seelenbewegungen und Affekten verbunden. Daher kann Musik die Affekte der Menschen beeinflussen, idealerweise zum Besseren.

Mittelalter
Die musikalisch-ästhetischen Aussagen mittelalterlicher Denker beziehen sich ausschließlich auf liturgische Musik. Im frühen Mittelalter (z. B. Boethius) lag der Schwerpunkt darauf, Musik als mathematische Wissenschaft zu interpretieren und ihr Schönheit zuzuschreiben, wenn sie die Harmonie des Kosmos darstellt. Später traten praktische musikalische Überlegungen in den Vordergrund: Mit der Einführung der römischen Liturgie in den fränkischen Gottesdienst im 9. Jahrhundert wurde die Position des Singens im Gottesdienst berücksichtigt. Alle Denker sind sich einig, dass Singen das Wort Gottes ist, das effektiver übertragen werden kann als Sprache allein. Dies bedeutet aber auch, dass Musik nur als „Transportmittel“ gesehen wird und nicht unabhängig existieren kann. Musik hat nur das Recht, im Zusammenhang mit liturgischem Text zu existieren. So wenig es im Mittelalter einzelne Komponistenpersönlichkeiten gibt, so wenig gibt es die Idee von “

Mit dem Aufkommen der Notenschrift und des polyphonen Gesangs im 11. Jahrhundert wird die Art der Komposition zunehmend reflektiert. Guido von Arezzo entwickelte unter anderem eine auf der Grammatik der Sprache basierende Theorie darüber, wie Melodien so aufgebaut werden müssen, dass sie perfekt sind. Es gibt zahlreiche Überlegungen zur Praxis des Orgelgesangs, von denen die bekannteste die „Musica enchiriadis“ aus dem 9. Jahrhundert ist. Der Streit zwischen Vertretern von Ars antiqua und Ars nova im 14. Jahrhundert, zwischen der „neuen“ Art, Musik zu machen, die sich aus weltlichen praktischen Bedürfnissen entwickelte (Entwicklung der Motette als soziale Form des Musizierens mit größerer rhythmischer Freiheit) und der „alter“ Weg, der sich auf die strenge liturgische Art des Musizierens stützte.

Die musikalische Ästhetik fand einen fruchtbaren Boden für ihre Entwicklung in der Weltanschauung und dem darauf basierenden ästhetischen Konzept der Neo-Pythagoräer und Neo-Platoniker, deren ideologische Ansichten von einem der größten Musiktheoretiker Boethius geteilt wurden, dessen ästhetische Ansichten den Grundstein dafür legten die mittelalterliche Lehre von drei miteinander verbundenen „Musik“, basierend auf der Idee der Nachbarschaft zwischen religiösen Symbolen, mentalen Zuständen und verschiedenen musikalischen Elementen.

Die Vorherrschaft der Antike in den Ansichten über die musikalische Ästhetik reicher numerischer Symbole und verschiedener allegorischer Interpretationen der Elemente der Musik bleibt im Mittelalter erhalten. So finden wir zum Beispiel im Benediktinermönch Aribo Scholastic eine direkte allegorische Interpretation von Musen in Bezug auf die Musiktheorie: Eine Muse bedeutet eine menschliche Stimme, zwei Musen – die Dualität von authentischen und Plug-in-Modi oder die doppelte Teilung Von der Musik in den Himmel und in den Menschen bedeuten drei Musen drei Arten von Klängen, vier Musen – vier Pfade oder vier Hauptkonsonanzen usw.

Andere Gelehrte aus der Klostergemeinschaft leisteten einen großen Beitrag zur Entwicklung der musikalischen Ästhetik: Aurelian aus Reome, Remigius von Osersky, Regino Pryumsky, Notker Zaika, Huckbald von Saint-Amansky, (Pseudo-) Odo Kluniysky, Guido Aretinsky, Berno aus Reichenau , Deutscher Entspannter, Wilg aus Hirschau, Magister Lambert, Adam Fuldsky, Martin Herbert, Dom Bedos de Selle, Dom Zhumilan, Schubiger, Don Geranger, Don Potier, Don Mokkero und andere.

Im Rahmen der kosmoästhetischen Tradition wurde die Musik vom französisch-flämischen Musiktheoretiker des späten 13. – ersten Halbjahres des 14. Jahrhunderts, Jakob Liege, dem Autor des Mirror of Music, der größten Abhandlung der EU, konzipiert Mittelalter (Speculum musicae, um 1330). Jacob Liège entwickelt die Lehre von den Intervallen, das System der kirchlichen Modi und Hexachorde, die Formen der polyphonen Musik, den Rhythmus und die Notation und verleiht dem Musikstück einen ebenen Status in der Hierarchie des Seins und einen Vertreter des kosmischen Gesetzes.

Moderne Zeiten
In der Renaissance beginnen Probleme der thematischen Verkörperung verschiedener ästhetischer Ideen in Musikwerken eines bestimmten Genres (Ars nova) erfolgreich gelöst zu werden. Von besonderem Wert sind in diesem Zusammenhang die Werke zur Musiktheorie von John Tinktoris und Nikolaus Listenius.

Unter dem Gesichtspunkt der Entwicklung der musikalischen Ästhetik ist die im Barock entstandene Theorie der Bedrängnisse von erheblichem Interesse, deren Hauptentwickler Johann Quants, Maren Mersenne, Athanasius Kircher, Johann Walter, Claudio Monteverdi und Johann waren Matteson, Giovanni Bononchini und Christian Shpis. Nach der Theorie der Affekte besteht das Ziel der Kreativität des Komponisten darin, Affekte zu stimulieren, für die Gruppen bestimmte Musikstile und andere Mittel des Komponistenschreibens zugeordnet sind. Athanasius Kircher zufolge war die Übertragung von Affekten nicht auf rein handwerkliche Techniken zurückzuführen, sondern eine Art magische Handlung, um die „Sympathie“ zu kontrollieren, die „zwischen einer Person und Musik entsteht“. In diesem Zusammenhang ist anzumerken, dass viele Komponisten dieser Zeit, darunter der größte von ihnen,

Besonders hervorzuheben ist die französische Musiktheoretikerin Maren Mersenne aus dem 17. Jahrhundert, deren Abhandlung „General Harmony“ („Harmonie universelle“) ein Beispiel für die universelle Wissenschaft des 17. Jahrhunderts ist, die die Konzepte der musikalischen Ästhetik mit grundlegenden Entdeckungen experimenteller Natur organisch synthetisiert Wissenschaft.

Musikästhetik des 18. Jahrhunderts
Im Zeitalter der Aufklärung, als die Musik von rein angewandten Funktionen befreit wurde, wurde das Verständnis der musikalischen Aktivität als eine Art „Klangnachahmung der Realität“ (Mimesis) durch die Anerkennung der Universalität und Verallgemeinerung des semantischen Inhalts musikalischer Werke ersetzt. Ab dem 18. Jahrhundert wird die Musik immer mehr von der Übereinstimmung mit den rhetorischen und kinästischen Formeln befreit, die aufgrund ihrer langen „Nähe“ zu Wort und Bewegung entstanden sind.

Im 18. Jahrhundert wurde Musik so weit außerhalb des Bereichs der ästhetischen Theorie betrachtet (damals visuell gedacht), dass Musik in William Hogarths Abhandlung The Analysis of Beauty kaum erwähnt wurde. Er hielt Tanz für schön (Abschluss der Abhandlung mit einer Diskussion des Menuetts), behandelte Musik jedoch nur insoweit als wichtig, als sie den Tänzern die richtige Begleitung bieten konnte.

Gegen Ende des Jahrhunderts begannen die Menschen jedoch, das Thema Musik und ihre eigene Schönheit von Musik als Teil eines gemischten Mediums wie in Oper und Tanz zu unterscheiden. Immanuel Kant, dessen Kritik des Urteils allgemein als das wichtigste und einflussreichste Werk zur Ästhetik im 18. Jahrhundert angesehen wird, argumentierte, Instrumentalmusik sei schön, aber letztendlich trivial. Im Vergleich zu den anderen bildenden Künsten greift es das Verständnis nicht ausreichend auf und es fehlt ihm ein moralischer Zweck. Um die Kombination von Genie und Geschmack zu zeigen, die Ideen und Schönheit verbindet, dachte Kant, dass Musik mit Worten kombiniert werden muss, wie in Liedern und Opern.

Musikästhetik des 19. Jahrhunderts
Im 19. Jahrhundert, der Ära der Romantik in der Musik, argumentierten einige Komponisten und Kritiker, dass Musik Ideen, Bilder, Emotionen oder sogar eine ganze literarische Handlung ausdrücken sollte und könnte. ETA Hoffmann stellte Kants Vorbehalte gegen Instrumentalmusik in Frage und argumentierte 1813, dass Musik im Grunde die Kunst der Instrumentalkomposition sei. Fünf Jahre später argumentierte Arthur Schopenhauers Die Welt als Wille und Repräsentation, dass Instrumentalmusik die größte Kunst ist, weil sie in einzigartiger Weise die metaphysische Organisation der Realität darstellen kann. Er hatte das Gefühl, dass Musik, weil sie weder die phänomenale Welt repräsentiert noch Aussagen darüber macht, sowohl das Bildliche als auch das Verbale umgeht. Er glaubte, dass Musik der wahren Natur aller Dinge viel näher sei als jede andere Kunstform. Diese Idee würde erklären, warum,

Obwohl die romantische Bewegung die These akzeptierte, dass Instrumentalmusik Repräsentationsfähigkeiten besitzt, unterstützten die meisten Schopenhauers Verknüpfung von Musik und Metaphysik nicht. Der Mainstream-Konsens bestätigte die Fähigkeit der Musik, bestimmte Emotionen und Situationen darzustellen. Der Komponist Robert Schumann erklärte 1832, sein Klavierwerk Papillons sei „als musikalische Darstellung“ der letzten Szene eines Romans von Jean Paul, Flegeljahre, gedacht. Der These, dass der Wert der Musik mit ihrer Repräsentationsfunktion zusammenhängt, wurde durch den Formalismus von Eduard Hanslick, der den „Krieg der Romantiker“ auslöste, energisch entgegengewirkt.

Dieser Kampf teilte die Ästhetik in zwei konkurrierende Gruppen: Auf der einen Seite stehen Formalisten (z. B. Hanslick), die betonen, dass die Belohnungen der Musik in der Wertschätzung der musikalischen Form oder des musikalischen Designs liegen, während auf der anderen Seite die Anti-Formalisten wie z als Richard Wagner, der die musikalische Form als Mittel zu anderen künstlerischen Zwecken betrachtete.

ETA Hoffmann
Die frühromantische Musikästhetik fällt noch in die Zeit des Wiener Klassikers und findet dort ihren Ausgangspunkt. Das wesentliche Merkmal des romantischen Denkens, die Überzeugung, dass „reine, absolute Klangkunst“ die eigentliche Musik ist, findet sich bereits in ETA Hoffmanns Rezension von Beethovens 5. Symphonie (1810), die für ihn die historisch wirksamste Manifestation der romantischer Geist in musikalischer Ästhetik. Hoffmann beschreibt die absolute Instrumentalmusik als die romantischste aller Künste. Es überwindet die Nachahmung einer äußeren, konzeptuell bestimmbaren Sinneswelt als ästhetische Substanz, indem es auf das „Unaussprechliche“ hinweist und damit über die Sprache hinausgeht. Im Gegensatz zu den spezifischen Auswirkungen der Vokalmusik umfasste die ästhetische Substanz unbestimmte Gefühle, was Hoffmann von der absoluten Musik als „Geistreich der Töne“ hört. Eine enthusiastische, metaphysische Übertreibung der Musik tritt sowohl bei Hoffmann als auch bei anderen frühen Romantikern auf,

Eduard Hanslick
Eduard Hanslick als wichtiger Musikästhetiker des 19. Jahrhunderts fordert eine wissenschaftliche Ästhetik, die auf dem gegebenen Kunstwerk basiert, anstatt eine romantische Verklärung mit ihren subjektiven Gefühlen und Reaktionen. Hanslick ist eindeutig gegen die emotionale Ästhetik, die die Essenz der Musik in den Gefühlen sieht, die sie hervorruft. Das Objekt der musikalischen Ästhetik ist nach Hanslick nur das objektiv Gegebene des musikalischen Werkes: seine Töne und die Besonderheiten ihrer Verbindung durch Melodie, Harmonie und Rhythmus. So betrachtet Hanslick den Inhalt und das Thema der Musik als ein individuelles Ergebnis der kompositorischen Arbeit des Geistes „in denkbarem Material“ und nennt diesen reinen Teil der Musik „klangvoll bewegende Formen“. Nur reine Instrumentalmusik kann als Musikkunst angesehen werden. Hanslick ‚ Die besondere Leistung zeigt sich in der Synthese von Form- und Inhaltsästhetik, insbesondere in der Betonung der Bedeutung einer formalen Analyse des Musikwerks für seine Ästhetik. Hanslick verweigert der Musik nicht den Prozess des Ausdrucks und der Erregung von Emotionen, sondern möchte sie aus der Analyse der Musik heraushalten, da nichts für ihre ästhetische Betrachtung außerhalb des Kunstwerks selbst liegt.

Friedrich Nietzsche
Friedrich Nietzsches Ästhetik der Musik folgt keiner einheitlichen Entwicklungslinie. Unter den Einflüssen von Richard Wagner und Arthur Schopenhauer, später Eduard Hanslicks, bewegen sich Nietzsches musikalisch-ästhetische Überlegungen zwischen den beiden Extremen von Gefühl und Form. Als Wagner ihn Ende 1868 kennenlernte, nahm Nietzsche Stellung im antiformalistischen Lager. Nietzsche gestand sich Wagner und seiner Sicht der Musik als Ausdruck der vom Empfänger verstandenen Emotion und unter dem Einfluss von Schopenhauer und vertrat zum Zeitpunkt seiner Geburt die Ansicht, dass die wesentliche Errungenschaft der Musik die „größte“ sei mögliche Übermittlung emotionaler Inhalte „. Aber bereits 1871 formulierte er in dem Fragment 12 Momente einer radikalen Ablehnung der Ästhetik von Emotionen. In Bezug auf den Gegensatz zwischen Wagner und Hanslick sind diese ersten Anzeichen späterer Wagner-Kritik jedoch auf Nietzsches strenge Selbstzensur zurückzuführen. Indem er sich von Wagner und Schopenhauer abwendet, entwickelt er eine formalistische Sichtweise, die Hanslicks Ästhetik sehr nahe kommt. Das Gefühl abdankt als entscheidende analytische Autorität für Nietzsche, während die Form in den Vordergrund tritt.

Musikästhetik des 20. Jahrhunderts
Eine Gruppe modernistischer Schriftsteller im frühen 20. Jahrhundert (einschließlich des Dichters Ezra Pound) glaubte, dass Musik im Wesentlichen rein sei, weil sie nichts darstelle oder auf etwas über sich selbst Bezug nehme. In gewisser Weise wollten sie die Poesie Hanslicks Vorstellungen vom autonomen, autarken Charakter der Musik näher bringen. (Bucknell 2002) Zu den Dissidenten dieser Ansicht gehörte insbesondere Albert Schweitzer, der in einem klassischen Werk über Bach gegen die angebliche „Reinheit“ der Musik argumentierte. Weit davon entfernt, eine neue Debatte zu sein, war diese Meinungsverschiedenheit zwischen Modernisten und ihren Kritikern eine direkte Fortsetzung der Debatte des 19. Jahrhunderts über die Autonomie der Musik.

Unter den Komponisten des 20. Jahrhunderts ist Igor Strawinsky der prominenteste Komponist, der die modernistische Idee der musikalischen Autonomie verteidigt. Wenn ein Komponist Musik macht, behauptet Strawinsky, ist das einzig Relevante „sein Verständnis der Kontur der Form, denn die Form ist alles. Er kann überhaupt nichts über Bedeutungen sagen“ (Strawinsky 1962, S. 115). Obwohl die Hörer oft nach Bedeutungen in der Musik suchen, warnte Strawinsky, dass dies Ablenkungen von der musikalischen Erfahrung sind.

Die markanteste Entwicklung in der Ästhetik der Musik im 20. Jahrhundert war, dass die Aufmerksamkeit auf die Unterscheidung zwischen „höherer“ und „niedrigerer“ Musik gerichtet wurde, die nun so verstanden wird, dass sie mit der Unterscheidung zwischen Kunstmusik und Popmusik übereinstimmt. Theodor Adorno schlug vor, dass die Kulturindustrie eine heruntergekommene Masse ungekünstelter, sentimentaler Produkte hervorbringt, die schwierigere und kritischere Kunstformen ersetzt haben, die dazu führen könnten, dass Menschen das soziale Leben tatsächlich in Frage stellen. Falsche Bedürfnisse werden bei Menschen von der Kulturindustrie gepflegt. Diese Bedürfnisse können vom kapitalistischen System sowohl geschaffen als auch befriedigt werden und die „wahren“ Bedürfnisse der Menschen ersetzen: Freiheit, uneingeschränkter Ausdruck des menschlichen Potenzials und der Kreativität und echtes kreatives Glück. Somit,

Beginnend mit Peter Kivys Arbeit in den 1970er Jahren hat die analytische Philosophie wesentlich zur Ästhetik der Musik beigetragen. Die analytische Philosophie widmet dem Thema musikalische Schönheit nur sehr wenig Aufmerksamkeit. Stattdessen inspirierte Kivy eine ausführliche Debatte über die Natur der emotionalen Ausdruckskraft in der Musik. Er trug auch zur Debatte über die Natur authentischer Darbietungen älterer Musik bei und argumentierte, dass ein Großteil der Debatte inkohärent sei, weil nicht zwischen vier unterschiedlichen Standards für authentische Darbietungen von Musik unterschieden werden könne (1995).

Expressionismus
Seit etwa 1920 wird der Begriff Expressionismus auch in Bezug auf Musik verwendet, um die Entstehung neuer musikästhetischer Phänomene zu Beginn des 20. Jahrhunderts zu erklären und zu klassifizieren. Als Gegenkonzept zum musikalischen Impressionismus ist der musikalische Expressionismus die Kunst des Ausdrucks, die Kunst, das (eigene) Innere auszudrücken. Es verzerrt die ästhetischen Ideale und Normen des 19. Jahrhunderts – schöner Klang, diatonisch, metrisch. Der Expressionismus findet seine Grundidee, den Ausdruck als Gegenkonzept zu etablieren, in der Konzeption der Neuen Deutschen Schule zu etablieren, aber er dreht andere konzeptuelle Ansätze in das Gegenteil. In den Kompositionen des Expressionismus ist die Idee, dass das Verstehen des Hörers Teil des Wesens des Ausdrucks der Musik selbst ist, nicht mehr zu finden. Dies bedeutet, dass Kompositionen nicht auf die Anforderungen oder Erwartungen des Hörers abgestimmt sind. Sie zeigen vielmehr Versuche, die Möglichkeiten des musikalischen Ausdrucks von Gefühlen zu realisieren. Wenn man die Grenzen des Bewusstseins überschreitet, sollte man sich seinem eigenen Wesen nähern, das jenseits des Bewusstseins liegt.

In der Kompositionspraxis werden diese Versuche als Erweiterung hörbar, wenn die Tonalität überschritten wird. Der Expressionismus mischt auch musikalische Genres (Symphonie, symphonische Poesie, Kammermusik, Lied, Ballade, Oper, Kantate) und überschreitet ihre Grenzen. Arnold Schönberg versucht, die Idee der Synästhesie durch die Verwendung verschiedener Kunstarten in „The happy hand“ (1924) zu verwirklichen. Wichtige Komponisten des musikalischen Expressionismus ua Charles Ives, Igor Strawinski, Béla Bartók, Arthur Honegger und Paul Hindemith.

Neoklassizismus
Ab den 1920er Jahren bezog sich der Oberbegriff Neoklassizismus auf die Verwendung von Formen, die sich im Bereich der Klangmusik klassischer Gültigkeit im Bereich der frei-tonalen oder atonalen Musik entwickelt hatten. Diese angenommenen Formen sollten als formales Element in neoklassischen Werken verwendet und in Form von Umschlägen in einer neuen Anordnung von Tönen ästhetisch reflektiert werden. Die musikalischen Elemente werden durch Hervorheben der formalen Eigenschaften und ihrer Anordnung durch das Prinzip der Entfremdung verdeutlicht. Die Eigenschaften des Tonsatzes verschmelzen dann nicht zu einem, sondern fungieren als frei zusammengesetzte Mechanismen. Dieser formalistische Prozess wurde nur auf vorgegebenen Ebenen, Tonsätzen oder Tonsatztypen der Klassik oder Vorklassik entwickelt und später in freien Kompositionen angewendet. Auch hier liegt der Ursprung meist im Klassiker, kann aber als solcher nicht mehr eindeutig identifiziert werden.

Insbesondere Strawinskis Anwendung soll die Rezeption von Musik bewusster machen. Das ästhetische Erscheinungsbild einer Selbstverständlichkeit oder Natürlichkeit des musikalischen Prozesses sollte aus der Rezeption entfernt werden. Theodor W. Adorno sah die Verfahren der reaktionären Tendenzen des Neoklassizismus aufgrund seiner Wiederherstellungsverfahren, die er gemeinsam als „Musik über Musik“ bezeichnete. Im Gegensatz zu dieser Ansicht kann der Neoklassizismus im Gegensatz zu subjektivistischen Behauptungen der Originalität des Expressionismus auch als produktiver Eklektizismus eingestuft werden.

Atonalität
Ab etwa 1908 beschreibt die Atonalität musikalische Entwicklungen, die sich dem vorherrschenden Ideal der Tonalität und ihrer Bildung von Klang und Form entziehen. In diesen musikalischen Entwicklungen bezeichnet Atonalität die Weiterentwicklung oder Negation der Tonalität. Im Zusammenhang mit dieser Bezeichnung sind die Begriffe Tonalität und Atonalität als relativ zu verstehen. Atonalität stellt kein entgegengesetztes Prinzip zur Tonalität dar, vielmehr ist Tonalität die musikgeschichtliche Voraussetzung für eine Idee von Atonalität. Komponisten wie Arnold Schönberg, Alban Berg oder Anton Webern, die das Prinzip der Atonalität verwendeten, sahen ihre Werke selbst als eingebettet in einen traditionellen Kontext der Musikgeschichte.

Atonalität bedeutet nicht den bloßen Ausschluss von Tonbeziehungen – obwohl die Anordnung der Töne nicht mit der Tonalität in Beziehung gesetzt werden muss -, sondern die Auflösung eines Tonzentrums und des Leittons. Der Ton selbst bleibt tonal, geht aber über das Prinzip der Tonalität hinaus. Die verschiedenen Tonhöhen einer chromatischen Skala scheinen äquivalent zu sein. Schönberg sieht dieses Prinzip als „Emanzipation der Dissonanz“: Die qualitative Unterscheidung zwischen Konsonanz und Dissonanz wird zur Äquivalenz aller aufgehobenen Intervallkombinationen. Dieses Prinzip kann auch als Mangel an Funktionalität im Sinne einer Defunktionalisierung musikalischer Phänomene im harmonischen Verlauf angesehen werden. Atonalität dient der Möglichkeit, tonale Beziehungen außerhalb der Tonalität zu erfahren. Erwartet und vertraut werden zu unerwarteten und ungewohnten ästhetischen Phänomenen. Arnold Schönberg, Anton Webern, Alban Berg und Josef Matthias Hauer entwickeln unterschiedliche Kompositionstechniken im Bereich der Atonalität. In der Musikwissenschaft wird zwischen freier Atonalität und Atonalität unterschieden, die an die Zwölftonmethode gebunden ist, sich aber nicht grundlegend unterscheidet.

Das Prinzip der Atonalität findet praktische Anwendung in Kompositionsmethoden der Zwölftontechnologie. Der Begriff Zwölftontechnik wird verwendet, um musikalische Werke zusammenzufassen, die ihre Grundlagen aus Arnold Schönbergs programmatischen Schriften (Serientechnik) oder aus Hauers tropischer Technik ableiten. Die Grundprinzipien der Zwölftontechnologie sind die vollständige Abstraktion der Chromatisierung der Tonsprache, um sicherzustellen, dass alle Töne gleiche Rechte haben, sowie die Allgegenwart bestimmter Intervallbeziehungen. Durch diese Prinzipien lösen sich die einzelnen Töne von ihren scheinbar natürlichen Eigenschaften.

Aufgrund der Weigerung, Schönheit und Harmonie zu akzeptieren, ist die Zwölftontechnologie angesichts der Entwicklung der Weltgeschichte zu Beginn des 20. Jahrhunderts die einzige authentische Kompositionspraxis für Theodor W. Adorno. Die Zwölftontechnologie enthält in ihrer einsamen Subjektivierung emanzipatorisches Potenzial und zeigt somit die Möglichkeit einer Veränderung der sozialen Verhältnisse. Musik hat auch für Ernst Bloch einen utopischen Charakter. Sie kann utopische Ideen in ihrer Sprache zeigen, aber nicht verwirklichen. Bloch erkennt diese utopischen Eigenschaften der Musik besonders in Schönbergs Zwölftontechnik.

Serialismus
Der Begriff Serienmusik wird seit den späten 1940er Jahren verwendet. Serienmusik versucht, die Klangmaterialien in einer Reihe zu strukturieren, so dass Schönbergs Serienprinzip auf den zentralen musikalischen Parametern (Klangdauer, Lautstärke, Klangfarbe) basiert. Diese Strukturierung sowie die Methode zur Gestaltung der Parameter durch gegenseitige Abhängigkeit basieren auf dem ästhetischen Ansatz der Musik, dass eine vollständige Organisation aller musikalischen Parameter auch eine musikalische Bedeutung erzeugen kann. Der Serialismus ist daher ein Versuch, Musik als sinnlichen Reflex einer Rechtsordnung ihrer tonalen Erscheinungen zu etablieren. Durch eine kritische Prüfung der Prinzipien des seriellen Komponierens wurden Modifikationen und Korrekturen in der Kompositionspraxis vorgenommen. Während zu Beginn der seriellen Musik auf die Entwicklung einer Komposition von einem strukturierten Material zu einer strukturierten Form geschlossen wurde, waren später übergeordnete Gestaltungsmerkmale ein Grundprinzip. Wichtige Vertreter der Serienmusik sind vor allem Olivier Messiaen und Pierre Boulez.

Elektronische Musik
Elektronische Musik ist Musik aus elektronisch erzeugten Klängen. Formen der elektronischen Musik entwickelten sich bereits im frühen 20. Jahrhundert, wurden jedoch erst in den 1950er Jahren vollständig entwickelt. Die Gründe für die Entstehung waren sowohl technische Entwicklungen (Erfindung der Elektronenröhre und Entwicklung des magnetischen Klangprozesses) als auch musikalische Aspekte. Die Dekonstruktion etablierter formaler Ideen sowie die Unterscheidung von klanglichen und rhythmischen Merkmalen konnten sich nur in den begrenzten Möglichkeiten der technischen Ausführung entwickeln. Mit Hilfe der elektronischen Musik wurde versucht, den Widerspruch zwischen der absichtlichen Strukturierung des Materials und dem tatsächlich verwendeten Material zu lösen.

Der musikästhetische Ansatz im Bereich der elektronischen Musik bestand darin, eine elementare Strukturierung musikalischer Prozesse nach dem seriellen Konzept durchzuführen. Die Tatsache, dass die Stellplätze nun in irgendeiner Weise angeordnet werden konnten, beseitigte auch regulatorische Einschränkungen. Verschiedene Methoden der elektronischen Klangerzeugung durch verschiedene Geräte ermöglichten ein hohes Maß an Flexibilität in der Kompositionspraxis. Im Kontext der elektronischen Musikproduktion verschwindet auch die Grenze zwischen Komponist und Interpret. In der Kompositionspraxis kann der Komponist auch als Dolmetscher auftreten.

Die anfängliche Autonomie der elektronischen Musik wird durch die Integration von Vokal- und Instrumentalklängen beseitigt. Elektronische Musik wird in ihrer Entwicklung in einzelne Disziplinen differenziert. Vor allem hier sind die Namen Musique concrète, Tonbandmusik, elektronische Musik in der Kölner Schule um Karlheinz Stockhausen und Live-Elektronik zu nennen. Elektronische Tanzmusik entstand in Richtung Popmusik. Elektronischer Jazz wird seit den 1960er Jahren auch zunehmend im Jazz eingesetzt. Mit diesen Entwicklungen wurde eine stärkere Integration und Differenzierung von lauten Musikelementen erreicht. Der Sampler hat den Formen der Musikrezeption seit den 1980er Jahren eine zusätzliche Referenznote gegeben.

Aleatoric
Aleatorisch als Oberbegriff bedeutet Kompositionsverfahren, die durch einen regulierten Zufallsprozess zu einem unvorhersehbaren musikalischen Ergebnis führen. Jede Auswahl an Musikmaterial ist durch die verfügbaren Materialoptionen begrenzt. Dennoch wird aleatorische Musik durch variable, unbestimmte und mehrdeutige Muster bestimmt, die das vorherrschende Ideal der Kausalität im musikalischen Prozess ablehnen. Im Gegensatz zu den Methoden der seriellen Musik ist die der aleatorischen nicht systematisch. Obwohl aleatorische Musik durch das variable Zusammenspiel aktueller Ereignisse bestimmt wird, ist eine klare Unterscheidung vom Prinzip der Improvisation erforderlich.

Aleatoriks Kompositionsprozess hat einen sich verändernden Einfluss auf die Interpretationspraxis. Die Tatsache, dass sich aleatorische Musik und ihre Notation aufgrund ihres zufälligen Prozesses vor der Interpretation öffnen müssen, erhöht die Unabhängigkeit und die gemeinsame Verantwortung des Interpreten erheblich. Die Interpretation aleatorischer Werke sollte daher auch als Erweiterung der Komposition betrachtet werden, da der musikalische Text und die Interpretation nicht unbedingt übereinstimmen müssen.

Auf dem Gebiet der aleatorischen Musik haben sich verschiedene Kompositionspraktiken entwickelt. Aleatorische Verfahren mit Karlheinz Stockhausen und Pierre Boulez werden als Fortsetzung serieller Kompositionsweisen verstanden. Boulez beschreibt seinen Ansatz als kontrollierten Zufall. John Cage hingegen vermeidet bewusst das Konzept des Aleatorischen und kontrastiert es mit den Konzepten des Zufalls und der Unbestimmtheit.

Minimale Musik
Der Begriff Minimalmusik wird seit den frühen 1970er Jahren verwendet. Es wird meistens synonym mit der Musik von La Monte Young, Terry Riley, Steve Reich und Philip Glass verwendet. Dies widerspricht, dass die Komponisten der Minimalmusik unterschiedliche kompositorische Ansätze vertreten und auch ihre kompositorischen Methoden entwickelt haben.

Der Begriff Minimalmusik umfasst zwei seiner grundlegendsten Prinzipien: die Reduktion des Musikmaterials und die Einfachheit der Formidee. Aber nur durch das Prinzip der Wiederholung dient das Reduktionsschema als ausreichende Charakterisierung der Musik. Da die Wiederholung immer Veränderungen beinhaltete, wie auch minimalistische Musiker erkannten, ändern sich die sich wiederholenden Muster in der musikalischen Struktur eines Stücks. Bei der Entwicklung der Minimalmusik wird die Idee der Harmonie als harmonische Form musikalischer Ereignisse durch eine Klangstruktur als Modalität ersetzt, die durch die Gleichzeitigkeit der polyphonen Linien charakterisiert werden kann. Die Melodie wird in der minimalistischen Musik nicht mehr als zeitliche und absichtliche Idee verstanden, sondern als Ergebnis eines musikalischen Prozesses. Der Rhythmus dient als Träger des musikalischen Prozesses. Reich prägte die Idee von Musik als Prozess als musikästhetischen Ansatz, während Glass Musik als Mosaik versteht. Beide konzeptuellen Ansätze haben ihre potenzielle Unendlichkeit gemeinsam, die bei der Überwindung von Zeitlimits letztendlich die musikalische Form des Werks negiert.

Musikästhetik des 21. Jahrhunderts
Im 21. Jahrhundert haben Philosophen wie Nick Zangwill das Studium der Ästhetik in der Musik erweitert, wie es im 20. Jahrhundert von Wissenschaftlern wie Jerrold Levinson und Peter Kivy studiert wurde. In seinem 2014 erschienenen Buch über die Ästhetik der Musik mit dem Titel Musik und ästhetische Realität: Formalismus und die Grenzen der Beschreibung stellt Zangwill seine realistische Position vor, indem er sagt: „Mit“ Realismus „über musikalische Erfahrung meine ich eine Ansicht, die die ästhetischen Eigenschaften der Musik in den Vordergrund stellt und unsere Erfahrung mit diesen Eigenschaften: Musikalische Erfahrung ist ein Bewusstsein für eine Reihe von Klängen und für die Klangstruktur und ihre ästhetischen Eigenschaften. Dies ist der Inhalt der musikalischen Erfahrung. “

Die zeitgenössische Musik des 20. und 21. Jahrhunderts hatte sowohl Anhänger als auch Kritiker. Theodor Adorno war im 20. Jahrhundert ein Kritiker vieler populärer Musik. Andere im 21. Jahrhundert, wie Eugene W. Holland, haben die Jazzimprovisation konstruktiv als sozioökonomisches Modell vorgeschlagen, und Edward W. Sarath hat den Jazz konstruktiv als nützliches Paradigma für das Verständnis von Bildung und Gesellschaft vorgeschlagen.

Konstruktiver Empfang
Eugene W. Holland hat die Jazzimprovisation als Modell für die sozialen und wirtschaftlichen Beziehungen im Allgemeinen vorgeschlagen. In ähnlicher Weise hat Edward W. Sarath die Jazzimprovisation konstruktiv als Modell für Veränderungen in Musik, Bildung und Gesellschaft vorgeschlagen.

Kritik
Simon Frith argumentiert, dass „schlechte Musik ein notwendiges Konzept für musikalisches Vergnügen, für musikalische Ästhetik ist“. Er unterscheidet zwei gängige Arten schlechter Musik: den Typ „Worst Records Ever Made“, der „Tracks enthält, die musikalisch eindeutig inkompetent sind; von Sängern, die nicht singen können, Spielern, die nicht spielen können, Produzenten, die nicht produzieren können“. und „Tracks mit Genreverwirrung. Die häufigsten Beispiele sind Schauspieler oder TV-Stars, die im neuesten Stil aufnehmen.“ Eine andere Art von „schlechter Musik“ sind „rockkritische Listen“, wie „Tracks mit Sound-Gimmicks, die ihren Charme oder ihre Neuheit überlebt haben“ und „Tracks, die von falschen Gefühlen abhängen, die ein Übermaß an Gefühl aufweisen, das zu einem Radio geformt ist. freundlicher Popsong. “

Frith gibt drei gemeinsame Eigenschaften an, die schlechter Musik zugeschrieben werden: unecht, schlechter Geschmack (siehe auch: Kitsch) und dumm. Er argumentiert: „Die Kennzeichnung einiger Tracks, Genres und Künstler als“ schlecht „ist ein notwendiger Bestandteil des Vergnügens der Popmusik. Auf diese Weise etablieren wir unseren Platz in verschiedenen Musikwelten. Und“ schlecht „ist hier ein Schlüsselwort, weil es legt nahe, dass ästhetische und ethische Urteile hier miteinander verbunden sind: Eine Aufzeichnung nicht zu mögen, ist nicht nur eine Frage des Geschmacks, es ist auch eine Frage des Arguments und des Arguments, das zählt „(S. 28). Friths Analyse der Popmusik basiert auf Soziologie.

Theodor Adorno war ein bekannter Philosoph, der über die Ästhetik der Popmusik schrieb. Als Marxist war Adorno der Popmusik äußerst feindlich gesinnt. Seine Theorie wurde größtenteils als Reaktion auf die wachsende Popularität der amerikanischen Musik in Europa zwischen dem Ersten und dem Zweiten Weltkrieg formuliert. Infolgedessen verwendet Adorno häufig „Jazz“ als Beispiel für das, was er für falsch mit populärer Musik hielt. Für Adorno umfasste dieser Begriff jedoch alle von Louis Armstrong bis Bing Crosby. Er griff populäre Musik an und behauptete, sie sei simpel und repetitiv und ermutige zu einer faschistischen Denkweise (1973, S. 126). Theodore Gracyk bietet neben Adorno die umfangreichste philosophische Analyse der Popmusik. Er argumentiert, dass konzeptionelle Kategorien und Unterscheidungen, die als Reaktion auf Kunstmusik entwickelt wurden, systematisch irreführend sind, wenn sie auf populäre Musik angewendet werden (1996). Gleichzeitig berauben die sozialen und politischen Dimensionen der Popmusik sie nicht ihres ästhetischen Wertes (2007).

2007 veröffentlichte der Musikwissenschaftler und Journalist Craig Schuftan The Culture Club, ein Buch, das Verbindungen zwischen modernen Kunstbewegungen und populärer Musik von heute und der der vergangenen Jahrzehnte und sogar Jahrhunderte herstellt. Seine Geschichte beinhaltet das Zeichnen von Grenzen zwischen Kunst oder Hochkultur und Pop oder Niedrigkultur. Eine wissenschaftlichere Studie zum gleichen Thema, Zwischen Montmartre und dem Mudd Club: Popmusik und Avantgarde, wurde fünf Jahre zuvor vom Philosophen Bernard Gendron veröffentlicht.

Kategorien
Logik Paradoxe

Hilbert-Bernays-Paradoxon

Das Hilbert-Bernays-Paradoxon ist ein charakteristisches Paradoxon, das zur Familie der Referenzparadoxien gehört (wie Berrys Paradoxon). Es ist nach David Hilbert und Paul Bernays benannt.

Geschichte
Das Paradoxon erscheint in Hilbert und Bernays ‚Grundlagen der Mathematik und wird von ihnen verwendet, um zu zeigen, dass eine ausreichend starke konsistente Theorie keinen eigenen Referenzfunktor enthalten kann. Obwohl es im Laufe des 20. Jahrhunderts weitgehend unbemerkt blieb, wurde es kürzlich wiederentdeckt und für seine besonderen Schwierigkeiten geschätzt.

Formulierung
So wie die semantische Eigenschaft der Wahrheit vom naiven Schema bestimmt zu sein scheint:

(T) Der Satz ‚P‘ ist genau dann wahr, wenn P.
(wo wir einfache Anführungszeichen verwenden, um auf den sprachlichen Ausdruck in den Anführungszeichen zu verweisen), scheint die semantische Eigenschaft der Referenz durch das naive Schema bestimmt zu werden:

(R) Wenn a existiert, ist der Referent des Namens ‚a‘ identisch mit a
Betrachten Sie jedoch einen Namen h für (natürliche) Zahlen, die Folgendes erfüllen:

(H) h ist identisch mit ‚(der Referenz von h) +1‘
Angenommen, für eine Zahl n:

(1) Der Referent von h ist identisch mit n
Dann existiert sicherlich der Referent von h und ebenso (der Referent von h) +1. Nach (R) folgt dann:

(2) Der Referent von ‚(der Referent von h) +1‘ ist identisch mit (dem Referenten von h) +1
und so ist es nach (H) und dem Prinzip der Ununterscheidbarkeit von Identitäten so:

(3) Der Referent von h ist identisch mit (dem Referenten von h) +1
Aber auch hier ergeben (1) und (3) durch Ununterscheidbarkeit von Identitäten:

(4) Der Referent von h ist identisch mit n + 1
und durch Transitivität der Identität ergibt (1) zusammen mit (4):

(5) n ist identisch mit n + 1
Aber (5) ist absurd, da keine Zahl mit ihrem Nachfolger identisch ist.

Lösungen
Da jede hinreichend starke Theorie so etwas wie (H) akzeptieren muss, kann Absurdität nur vermieden werden, indem das Prinzip der naiven Referenz (R) abgelehnt wird oder indem die klassische Logik abgelehnt wird (die die Argumentation aus (R) und bestätigt) (H) zur Absurdität). Beim ersten Ansatz überträgt sich normalerweise alles, was man über das Lügner-Paradoxon sagt, reibungslos auf das Hilbert-Bernays-Paradoxon. Das Paradoxon stellt stattdessen für viele Lösungen, die den zweiten Ansatz verfolgen, besondere Schwierigkeiten dar: Zum Beispiel haben Lösungen für das Lügnerparadoxon, die das Gesetz der ausgeschlossenen Mitte (das vom Hilbert-Bernays-Paradoxon nicht verwendet wird) ablehnen, bestritten, dass es so etwas wie gibt der Referent von h;