Diese Künstliche Intelligenz soll unsere Emotionen und sogar Krankheiten hören

Noch sind die meisten Maschinen gefühlskalt. Sie merken nicht, ob wir traurig, wütend oder müde sind. Doch sollen sie wirklich einmal Kollegen, Assistenten oder gar Freunde werden, müssen sie lernen, auf unsere Emotionen einzugehen. Nur wie? Viele Firmen setzen auf Gesichtserkennung. Das bayerische Unternehmen audEERING dagegen hat eine Technologie entwickelt, die menschliche Emotionen hören kann. Und nicht nur die.

Von Wolfgang Kerler

Wer den Mund zu einem Lächeln formt, ist glücklich. Wer die Augen finster zusammenkneift, ist wütend. Und wer Augen und Mund aufreißt, ist überrascht. So einfach ist das, oder? Leider nicht. Vom Gesichtsausdruck eines Menschen auf seine Emotionen zu schließen, kann oft schief gehen. Zu diesem Schluss kam im Juli 2019 ein Team von Wissenschaftlern, nachdem es mehr als 1.000 Studien über den Zusammenhang von Mimik und Gefühlslage begutachtet hatte.

Zwar komme es vor, dass glückliche Menschen lächeln oder wütende Menschen grimmig schauen, heißt es im Bericht der amerikanischen Psychologie-Professorin Lisa Feldman Barrett und ihrer Kollegen. „Doch wie Menschen Wut, Ekel, Angst, Glück, Traurigkeit und Überraschung ausdrücken, variiert stark zwischen den Kulturen, Situationen und sogar zwischen Menschen innerhalb ein und derselben Situation.“

Lisa Feldman Barrett zweifelt deshalb an den Versprechen diverser Technologiefirmen, die behaupten, ihre Software könne per Gesichtserkennung Aussagen über die Emotionen von Menschen machen. „Sie können einen finsteren Blick erkennen“, sagte sie zu The Verge . „Aber das ist nicht dasselbe wie Wut zu erkennen.“ Dennoch bieten Unternehmen von Google bis Amazon ihre Bilderkennungs-Software auch zur Emotion Recognition an – bei Microsoft könnt ihr die Fähigkeiten der KI sogar selbst testen.

Emotion Recognition Barret et alBittet man Probanden, die Mimik auf Fotografien einem Set von Emotionen zuzuordnen, können die Antworten erheblich voneinander abweichen. Bild: Barrett et al.

Die Stimme verrät wirklich etwas über die Stimmung

Wer jedoch wirklich etwas über die Gefühlslage eines Menschen erfahren will, sollte die Augen schließen und ihm einfach nur zuhören. Denn unsere Stimme verrät am meisten darüber, wie es uns geht. Das fand Michael Kraus von der Universität Yale durch eine Studie mit fast 1.800 Testpersonen heraus. Daraus folgt: Wer Maschinen beibringen will, die Gefühle von Menschen zu erkennen, sollte sie weniger mit Bildern und mehr mit Tonaufnahmen trainieren.

Genau das macht audEERING, eine 2012 gegründete Firma mit Sitz in Gilching bei München, die inzwischen 61 Mitarbeiter hat. „Wir analysieren das akustische Signal in seiner kompletten Bandbreite“, sagt Dagmar Schuller, die Geschäftsführerin und Mitgründerin, im Gespräch mit 1E9. „Wir analysieren also nicht nur, ob ein Mensch spricht, sondern auch wie er spricht und den gesamten Kontext, den ein Audiosignal liefert.“

Durch maschinelles Lernen hat audEERING eine KI entwickelt, die innerhalb von Sekunden erkennen kann, dass sie gerade einen wütenden Mann in einem vollen Restaurant gehört hat. Oder dass sie es mit einer verschnupften Frau in einem leisen Büro zu tun hat – denn, klar, eine Erkältung zu hören, ist für sie kein Problem. Oder dass sie Zeugin eines hitzigen, fast schon wütenden Meetings mit sieben Teilnehmern wird – und einem wenig empathischen Chef. Die Frage ist: Was bringt das?

Dagmar Schuller und ihr Team entwickeln Lösungen für viele verschiedene Anwendungen. Eine davon: persönliche Sprachassistenten, die durch Emotionserkennung passendere Informationen liefern können. „Wenn Sie das Wetter wissen wollen, ist das die eine Sache“, sagt die Firmenchefin. „Aber wenn Sie zum Beispiel sagen: Assistent XY, schlag mir doch mal ein paar Lieder vor, dann ist es interessant zu wissen, in welcher Stimmung Sie gerade sind.“ Merkt der Assistent, dass sein Nutzer schlecht drauf ist, kann er Musik auswählen, die seine Stimmung verbessert. Ist der Nutzer erkältet, kann ihm der Assistent Empfehlungen geben. Auch Amazon möchte das seinem Assistenten Alexa beibringen – und arbeitet an Emotionserkennung per Stimme.

Die audEERING-Technologie ist bereits im Einsatz, auch in Call Centern. „Da haben Sie Personen sitzen, die täglich damit konfrontiert werden, dass Leute anrufen, die – sagen wir mal – nicht im optimalen Zustand sind“, sagt Dagmar Schuller – und meint: Oft rufen Kunden an, die frustriert sind, weil der Flug gecancelt wurde, eine falsche Bestellung geliefert wurde oder irgendein Produkt nicht funktioniert.


Mit diesem Video erklärt audEERING wie seine Lösung für Call Center funktioniert.

Das audEERING-Tool gibt den Mitarbeitern der Call Center nun eine Hilfestellung: An einer Linie können sie ablesen, wie verärgert der Kunde ist – und es als persönlichen Erfolg verbuchen, wenn sie den Anrufer aus dem roten Bereich in den gelben oder grünen bringen. „Wenn sich ein Gespräch aber extrem kritisch entwickelt, hat der Agent die Möglichkeit, es an den Supervisor abzugeben“, sagt Dagmar Schuller. „Dadurch wird der Agent entlastet.“

Auch Spaß machen kann die Emotionserkennung, zum Beispiel wenn sie in Videospielen zum Einsatz kommt. Plötzlich könnte es eine Rolle spiele, wie man mit virtuellen Charakteren spricht – dominant, freundlich, ängstlich. Oder ob man in einer Kampfsituation nervös klingt. Oder ob man Zaubersprüche energisch genug spricht. Um nach Ideen zu suchen, hat audEERING bereits zu einer Game Challenge aufgerufen.

Fast schon gewöhnlich wirkt dagegen ein anderes Einsatzfeld: das in Kopfhörern mit aktiver Geräuschunterdrückung. Auch in solchen wird die audEERING-Software bereits verwendet – und filtert die Baustelle nebenan oder den Fluglärm heraus.

Die KI soll Krankheiten wie Parkinson oder Alzheimer hören

Die umfassende Audioanalyse erlaubt aber noch weit mehr. Selbst Krankheiten, die über einen Schnupfen hinausgehen, soll sie erkennen. Schon jetzt kann die KI des bayerischen Unternehmens zwischen Menschen mit und ohne Parkinson-Erkrankung sehr gut unterscheiden. „Wir haben dafür eine Anwendung entwickelt, bei der Sie in 15 Sekunden klassische Wörter mit Vokalen, die Ihnen auch ein Neurologe für einen Teil seiner Diagnose vorgeben würde, sagen müssen“, erklärt Dagmar Schuller.

Die nächste Herausforderung sei es, mithilfe der Software eine Parkinson-Erkrankung schon dann zu erkennen, wenn Betroffene oder Mitmenschen noch gar nichts bemerken. „Wenn Sie sich artikulieren, spielen dafür ganz unterschiedliche Muskelgruppen zusammen: Stimmbänder, Kehlkopf, Zunge, Gesichtsmuskulatur oder Brustmuskulatur. Das heißt, an Diskontinuitäten im Audiosignal kann mein einen Befall der Artikulationsmuskulatur schon feststellen, wenn noch keinerlei Zittern erkennbar ist.“ Auch bei der Therapie und Früherkennung von Alzheimer könnte die Technologie helfen – etwa, indem sie scheinbar grundlose Emotionsausbrüche registriert.

Besonders stolz is Dagmar Schuller auf ein Forschungsprojekt mit Partnern wie dem Fraunhofer IS. Das Ziel: Die audEERING-Software soll Kindern mit Autismus helfen, die große Schwierigkeiten damit haben, die Emotionen anderer Menschen zu erkennen und ihre eigenen Emotionen auszudrücken. „Man muss sich das wie das Lernen einer Fremdsprache vorstellen“, sagt die Gründerin. „Das autistische Kind bekommt beigebracht: so klingt Ärger. Und wenn es sich selber ausdrückt, bekommt es als Feedback zurück: Ja, du hast Ärger gut ausgedrückt. Oder: Nein, so würde man das nicht erkennen.“

Kann jedes Smartphone zum Lügendetektor werden?

Bei all den neuen Möglichkeiten, die Künstliche Intelligenz bei der Audioanalyse eröffnet, gibt es natürlich auch neue Risiken. Wie wird mit den persönlichen, teils intimen Daten umgegangen, die von Geräten gesammelt und verarbeitet werden? Wie kann verhindert werden, dass Menschen ohne ihr Wissen „emotional abgehört“ werden? Und könnte in Zukunft jedes Smartphone zum privaten Lügendetektor umgebaut werden, was überall Misstrauen sät?

„Natürlich kann man nie hundertprozentig sagen, dass eine Technologie nicht auch missbräuchlich genutzt wird“, sagt Dagmar Schuller. Doch die Software ihrer Firma sei in Bezug auf komplexere Analysen vor allem darauf ausgerichtet, auf individuelle Nutzer kalibriert zu werden, die sich aktiv dafür entscheiden, damit zu arbeiten – und sie jederzeit ausschalten können. Je länger jemand mit der KI arbeite, umso besser könne sie den Nutzer einschätzen.

„Ist die Maschine nicht auf Sie kalibriert, haben wir bei der Emotionserkennung technisch derzeit das menschliche Level. Das heißt, die Rate, mit der wir Emotionen erkennen, liegt zwischen 70 und 80 Prozent“, erklärt Dagmar Schuller. „Das schaffen Menschen auch selbst.“ Und auch sonst könnten die Algorithmen immer nur mit Wahrscheinlichkeiten arbeiten. „Sie können also nicht sagen, ob Sie lügen oder nicht, sondern nur mit einer bestimmten Wahrscheinlichkeit erkennen, ob Sie die Wahrheit sagen.“ Anders als bei großen Tech-Anbietern werden die Audiodaten bei den audEERING-Produkten in der Regel in Echtzeit auf dem Gerät analysiert. Sie gehen also nicht in eine Cloud und werden auch nicht gespeichert.

Vielleicht könnte gerade dieser letzte Aspekt ein Wettbewerbsvorteil der KI aus Deutschland sein. Denn es ist wohl davon auszugehen, dass Alexa, Siri & Co. – wenn sie denn standardmäßig Emotionen hören kennen – ihre Daten weiterhin an ihre Mutterkonzerne abgeben. Und die können ihre Nutzerprofile dann um einen weiteren Baustein ergänzen…

Titelbild: Tara Moore / Getty Images

4 „Gefällt mir“

Mich würde interessieren, welche denkbaren Einsatzmöglichkeiten so einer Technologie für euch interessant wären? Und ob ihr Bedenken wegen der doch sehr persönlichen Daten hättet?

Für mich persönlich kann ich sagen, dass ich bisher völlig auf den Einsatz von Sprachassistenten verzichte. Und das auch so lange vorhabe, bis die Programme wirklich halbwegs intelligent sind. Dafür bin ich ein Heavy User von Noise Cancelling Kopfhörern bin – da entsteht für mich durch Audioanalyse echter Mehrwert. Schlau in Games integriert könnte es auch spannend sein. Und den Einsatz für Diagnose, Therapie oder Prävention von Krankheiten sollte man auf jeden Fall weiter forcieren.

Außerdem: Solange meine Audiodaten nicht in der Cloud landen und dort mit anderen schon vorhandenen Profilen von mir vermischt werden, wäre ich zufrieden…

2 „Gefällt mir“

Im Grunde finde ich die Technologie und Möglichkeit, Emotionen zu erkennen sehr interessant und könnte mir einige Einsatzmöglichkeiten vorstellen. Vor allem im Bereich von Videospielen oder Heimassistenten.

Allerdings fände ich es unheimlich, wenn die Daten, wie ich mich fühle, gespeichert und bei Unternehmen verarbeitet werden. Ich glaube, das könnte noch ein interessanter Streifall für Datenschützer werden.

2 „Gefällt mir“

Klingt doch phantastisch, dass man Krankheiten aber wohl auch Stress und Überlastungserscheinungen frühzeitig erkennt und dafür sensibilisiert wird. Dass die Privatsphäre geschützt bleibt sollte denke ich selbstverständlich sein - vielleicht aber auch gar nicht so einfach?!

Vor etwa 6-8 Jahren haben sich ein paar Münchner nach London aufgemacht. Die haben Smartphones und den Umgang damit (Audio-Signale, Acceleration, Art wie man tippt) verwendet, um Stresslevels zu messen und das dann als Corporate Health Tool angeboten.

Die Firma gibt es immer noch: Soma Analytics.

Hab jedoch gerade gesehen, dass sie kürzlich einen Big Brother Award gewonnen haben: https://bigbrotherawards.de/2018/arbeitswelt-soma-analytics

Weiss nicht ob der Award gerechtfertigt ist. Würde gerne besser verstehen warum es evtl so schwierig ist die Privatsphäre zu schützen. Kann man nicht einfach anonymisieren (on device?) - Was gibt es hier für techn. Möglichkeiten, um einen Missbrauch zu verhindern?

2 „Gefällt mir“

Sorry, dass ich das Thema jetzt erst gefunden habe, aber es ist echt spannend:

Habe Bedenken, abseits dessen dass „sie“ die Daten sammeln etc.
Ich möchte nicht, dass mir meine Alexa oder mein Alex einen heiteren Song vorschlägt, wenn ich schlecht drauf bin. Wenn ich schlecht drauf bin hat das einen Grund. Und mit dem muss ich mich auseinandersetzen und meiner selbst bewusst werden. Mündige und selbstbestimmte Menschen können mit ihren Emotionen selber umgehen und sourcen das nicht aus. Man würde dann abstumpfen und sich in eine emotionale Bequemlichkeit zurückziehen, derer man sich nicht gewahr ist. So wird man noch manipulierbarer und vor allem kennt man sich selbst nicht. Was will ich dann mit der Person "ich"noch? „Alexa, lenk mich bitte von mir selbst ab!“? Nicht nur Wissen oder Bildung macht einen Menschen autark oder zum Souverän seines Selbst.

@unulaunu: aus einem anderen Kontext, aber darauf kommt es eben auch hier an

Dazu gehört auch die Kompetenz seine eigene Psyche zu kennen. Was wenn wir nicht mehr lernen mit Wut oder Trauer umzugehen, weil KIs uns schon besänftigen bevor die Emotionen wirklich ausbrechen? Wenn die KI dann mal abstürzt will ich nicht mit mir allein sein…

2 „Gefällt mir“

Auf eine ganze Gesellschaft angewandt kann man die Frage in Richtung China stellen. Was wenn das Pendel einer Gesellschaft nicht mehr nach der einen oder anderen Seite ausschlagen darf? Ich glaube langfristig führt das zu noch größeren eruptionen.

Wünsche mir auch dass man Tools und Technologie so nutzt dass man selbst freier und souveräner sein kann. Nicht umgekehrt! Gibt es hierfür gute oder schlechte Beispiele?

3 „Gefällt mir“

…mh, also Maximum Hammer auf der Range was Manipulation für Gesellschaft negativ auf emotionaler Ebene tun kann: Die Veranstaltungen zum Reichsparteitag in Nürnberg mit allerlei Mittel, die damals so zur Verfügung standen. Das Kollektiv wurde emotional in eine Richtung „gelenkt“. Der Parteitag als eines vieler manipulativer Instrumente auf emotionaler Ebene. Hätten die Tools wie heute gehabt…

Aber zu heutigen technischen „Emotion Enhancern“: Das Coldplay Konzert mit den Wristbands. Die Bänder wurden gesteuert zur Musik. Und animierten die Leute zum „Gemeinschaftsgefühl“. Ab Min 0:50, wenn Chris Martin den Leuten sagt: „Put your hands in the air.“ Man hört wie begeistert sie sind. Habe euphorische Berichte gehört… aber will ich, dass meine LEDs am Handgelenk aufleuchten, ohne dass ich das steuere? Mh,…

2 „Gefällt mir“

ich muss da noch anfügen: Atmosphären und Stimmungen sind etwas wunderbares, das wir Menschen brauchen. Aber das ist eben auch das schwierige daran. Alles was man braucht sollte man dann genau kennen… und wissen was es mit einem machen kann.

1 „Gefällt mir“

Das Konzert gimmick finde ich cool. Leute finden sich zusammen in der gemeinsamen Lust auf die mucke und wollen es zelebrieren. Sowas geht nur gemeinsam und im Kollektiv und macht meiner Meinung Konzerte aus. Das ist halt ein visueller Eindruck der ersehnten Geteilten Leidenschaft und Emotion.

In China hab ich gehört hat die Partei Staats Apps über die man virtuell dem Parteitag beiwohnen kann und applaudiert. Wie auf FB eigentlich als Feature nur politisch genutzt. Finde es irgendwie ganz nett wenn eine Milliarde Menschen dem politischen geschehen zujubeln und sehen dass andere es auch tun. Aber halte recht wenig von sowas.

Mein arbeits-Alltag ohne digitalen Kalender
würde ich so nicht ertragen. Er wäre massiv entschleunigt. Wobei ich nicht gestresst bin. Si gesehen ist der cal eine Befreiung.

Insta und all die Social Media Geschichten in denen ich nur konsumiere finde ich katastrophal. Macht abhängig und stumpf.

1E9 gefällt mir weil es mir hilft halbgares gewaber im kopf in Ideen und Worte zu fassen. Damit wird das real. Meine wellenfunkionen kollabieren quasi in Worte und Sätze und entstehen sozusagen erst hier im realen :slight_smile:

3 „Gefällt mir“

Ein Indiz dafür, dass die Erkenntnis von Kleist auch mit digitalem Reden funktioniert :slight_smile:

https://de.m.wikisource.org/wiki/Ueber_die_allmähliche_Verfertigung_der_Gedanken_beim_Reden

Das nur als kleiner Exkurs.

2 „Gefällt mir“

GO for Kleist und 1E9 :+1: :grinning:

1 „Gefällt mir“

Was soll das bringen?
Wozu das Menschliche, das Emotionale digitalisieren?
Welch Zeit- und Ressourcenverschwendung…
Ich habe den Vortrag gestern in der AAIC nebenbei angehört und halte das gesamte Projekt für zwar spannend, dennoch überflüssig.
KI soll doch bitte den Menschen bei datenbasierten Prozessen unterstützen, ein virtueller Assistent sein, der die Reichweite des menschlichen Intellekts erhöht und nicht das biologisch-soziale ersetzt das unserer Seele gut tut…
Eine KI soll zB den Arzt von Papierkram und Auswertungen von Statistik oder Diagnosekonvoluten erlösen, damit er mehr Zeit mit dem Patienten verbringen kann. Denn es braucht keine empathische KI, sondern empathische Menschen, die KIs dafür einsetzen können um sich auf die Ausbildung ihrer emotionalen Intelligenz und dem Sehen und Verstehen komplexer Systeme zu konzentrieren… uff… wi haben noch viel vor uns…

3 „Gefällt mir“

Auf den Punkt gebracht. Auch cool als prägnante Zielsetzung für so manches KI Programm :slight_smile:

1 „Gefällt mir“

danke! steht genau so in unserer unternehmens-mission. eine „humanistische KI“ in planetarischer verantwortung.
ich suche derzeit nach philosophen, die unsere R&D-abteilung dabei unterstützen einen „ethischen layer“ für die KI zu entwerfen.
meine phantasie geht sogar soweit, dass es ethische layer nach den verschiedenen philosophischen denkschulen geben soll, die man in simulationen testen kann, um zu sehen, was eine denkschule so anrichtet - wenn zu ende gedacht…
sehr spannendes feld.
spannender als nen schachcomputer zu bauen, der dann in gesichern emotionen lesen soll… aber ich höre schon auf zu bashen… sorry… ist schon spät heute… ich mach mir mal nen tee…

3 „Gefällt mir“

Oh, keine Denkschule sollte zu Ende gedacht sein, das wäre ja ein Denkende. Schulen sollte nur Anfänge von Wegen sein. Aber sorry :wink:, du meinst es aus den verschiedenen Warten/ Denkrichtungen heraus betrachten, oder?

Ethischer Layer finde ich als drüber gelegte Folie, so to say als Brille durch die man das eine oder andere betrachtet, interessant. Aber schon eher nur, um damit raus zu finden was der ethische Kern der Sache sein sollte. Wollt ihr so etwas?

Deine Skepsis kann ich zum Teil verstehen, aber einige Use Cases, bei denen es nicht darum geht, menschliche Emotionen zu ersetzen, sondern die Interaktion zwischen Menschen und Maschinen zu verbessern, sehe ich durchaus.

Der vielleicht am wenigsten „nötige“, aber durchaus spannende sind Games. Da könnten interessante Spiele entstehen. Darüber hinaus wird die demografische Entwicklung und die zunehmende Individualisierung wohl oder übel dazu führen, dass immer mehr Menschen im Alter alleine leben. Natürlich wären empathische menschliche Ansprechpartner dann das, was sie am dringendsten brauchen. Aber wo sollen die herkommen? Wir haben schon jetzt viel zu wenig Pflegekräfte. Und mit dieser unangenehmen Erkenntnis müssen wir uns arrangieren. Technische Assistenten oder Pflegeroboter können da also durchaus irgendwann einmal Linderung verschaffen. Dass die Umarmung durch eine Maschine einen positiven Effekt haben kann, haben Studien bereits gezeigt. Auch das kann man seltsam finden, aber der Effekt ist nunmal da. Damit Maschinen aber richtig reagieren können, müssen sie unsere Emotionen verstehen.

Dasselbe gilt für Notfälle, zum Beispiel bei Bränden. Wenn Roboter oder KI-Leitsysteme dann automatisch eingreifen, können sie das umso besser tun, wenn sie eine Ahnung davon haben, wie panisch oder gelassen die Menschen sind, mit denen sie es zu tun haben. Oder denken wir an autonome Autoshuttles oder KI-Servicemitarbeiter an Hotlines. Ohnehin werden Maschinen und Roboter in den kommenden Jahrzehnten immer stärker zu Co-Workern der Menschen – nicht nur in Käfigen wie heutige Industrieroboter – und auch da kann die Wahrnehmung von Emotionen helfen. Das hat uns doch schon Data aus Star Trek gezeigt! Und das mag zunächst nach Wegfall von menschlichen Arbeitskräften klingen, aber die demografische Entwicklung wird auch hier dazu führen, dass wir irgendwann wohl nicht mehr genug Menschen haben, um die anfallende Arbeit allein zu erledigen…

Ich glaube, dass diese Technologie auch genau das tun kann. Menschen, die sich schwer tun, Emotionen zu erkennen (siehe das Beispiel der autistischen Kinder aus dem Text), können unterstützt werden.

Und selbst wenn Maschinen Emotionen erkennen können, ersetzen sie doch Menschen nicht zwangsläufig, sondern ergänzen sie. Das ist aus meiner Sicht keine Entweder-Oder-Situation.

Ich würde sagen: Mündige und selbstbestimmte Menschen können auch selbst entscheiden, ob sie so eine Technologie nutzen wollen oder nicht :wink: Und wenn sie es nicht wollen, wird sie sich nicht durchsetzen und verschwinden. Wenn sie es aber wollen, wird sie bleiben.

Unabhängig von der Emotionserkennung finde ich die Technologie für die medizinische Diagnostik und Therapie spannend. Und Noise-Cancelling-Kopfhörer sind eh meine persönliche Lieblingserfindung der letzten Jahrzehnte. Alles, was die noch besser macht, unterstütze ich erstmal :wink:

1 „Gefällt mir“

Ja genau. Man muss nur schauen, dass man nicht aus Bequemlichkeit oder weil man den Überblick in der Komplexität verpasst, den Übergang nicht ganz mitbekommt. Aber das wollt ich gar nicht sagen.

Es kommt schon total drauf an, welche Anwendung es mit welchem Ziel ist. Also man muss es auch auslegen und nicht pauschalisieren. Es gibt viele Fälle und Anwendungsgebiete, wo es Sinn macht.

Ich bin nur beim Beispiel der Musik hängen geblieben, die mich aufheitert. Da mag ich nicht mitmachen und hab Bedenken bei solchen Tendenzen.

1 „Gefällt mir“

Wie heisst eure Firma?

Sounds like a real mission! The sky is not the limit. Finde ich sehr cool!!

Diese ethischen layer experimente durch simulierbar machen von gewissen philosophischen Denkschulen finde ich sehr spannend. Wird den ein oder anderen O.G. entzaubern, bzw im historischen Kontext natürlich würdigen (im Sinne der Geschichte des Denkens der Menschheit oder so), aber als nicht brauchbar im heutigen Kontext entlarven. Durch so etwas glaube ich könnten auch ganz neue Denkrichtungen entstehen - quasi aus dem Dialog mit computer-Simulation :slight_smile:

1 „Gefällt mir“

Musik ist tatsächlich kritischer, als es erscheinen mag. Wir haben in der Journalistenausbildung für Fernsehen und Radio von Musik schon immer als „Geschmacksverstärker“ gesprochen, weil man damit ganz gezielt bestimmte Emotionen beim Publikum hervorrufen kann. Noch subtiler und unbemerkter als mit düsteren Bildern, Vignetten um den Bildrand, Entsättigung… Musik wirkt direkt und man kann sich nicht entziehen. Da liegt es also in der Verantwortung von Journalistinnen/Filmemachern abzuwägen, ob der Einsatz redlich ist oder nicht…

2 „Gefällt mir“

Da könnte der @MaxHaarich für euch ein guter Ansprechpartner sein.