Der Songwriter reagiert genervt auf einen KI-generierten Songentwurf. In seinem Newsletter wettert er gegen die Software ChatGPT.
Brighton (jmb) - Nick Cave ist für sein tiefsinniges Songwriting bekannt. Ein neuseeländischer Fan schickte ihm kürzlich einen Songtext, der mit Hilfe von Künstlicher Intelligenz erstellt wurde und den Stil Nick Caves nachahmt. Wenig begeistert reagierte Cave am Mittwoch auf die KI-Kreation. In seinem öffentlichen Newsletter "The Red Hand Files" schreibt er: "Danke für den Song, aber bei aller Liebe und allem Respekt, dieser Song ist Bullshit, eine groteske Verhöhnung dessen, was es heißt, ein Mensch zu sein und ich mag ihn nicht besonders."
Nick Cave ist Songwriter mit Leidenschaft. Und genau diese werde eine Künstliche Intelligenz nie besitzen. Denn KI könne weder fühlen noch leiden. "Lieder entstehen aus dem Leiden heraus, das heißt, sie basieren auf dem komplexen, inneren menschlichen Schöpfungskampf, und soweit ich weiß, haben Algorithmen keine Gefühle. Daten leiden nicht", empört sich der Sänger. Wenn aufrichtiges Songwriting durch moderne Technik ersetzt würde, sei die Apokalypse schon im vollen Gange.
Der Songentwurf des Fans wurde mit der Software ChatGPT erstellt. Der Algorithmus der Firma Open AI übertrifft, was künstlicher Intelligenz bislang möglich war: Die Software schreibt Texte, die sich so lesen, als seien sie von einem Menschen geschrieben. Thema und Stil lassen sich anhand von Schlagwörtern vorgeben, ChatGPT übernimmt den Rest. Die Software ist im vergangenen Jahr veröffentlicht worden und könnte die Art und Weise, wie Texte geschrieben werden, revolutionieren. Allerdings bleibt die Frage nach dem Copyright offen. Denn der Algorithmus bedient sich aller Informationen, die sich im Netz befinden und fragt dabei nicht, woher sie kommen.
Der künstliche Nick Cave-Songtext von ChatGPT besteht aus drei Strophen, die eine wilde Ansammlung religiöser Begriffe und mystischer Phrasen beinhalten. Damit weist er durchaus Ähnlichkeiten mit Nick Caves Songs auf. Hier ist der AI-generierte Text in voller Länge:
Strophe 1
In the depths of the night, I hear a call
A voice that echoes, through the hall
It's a siren's song, that pulls me in
Takes me to a place, where I can't begin
Refrain:
I am the sinner, I am the saint
I am the darkness, I am the light
I am the hunter, I am the prey
I am the devil, I am the savior
Strophe 2
I walk the streets, with my head held high
I've got my demons, but I'll make them fly
I'll dance with the devil, and I'll play his game
I'll be the one, to call his name
Bridge:
I've got the blood of angels, on my hands
I've got the fire of hell, in my eyes
I'm the king of the abyss, I'm the ruler of the dark
I'm the one that they fear, in the shadows they hark
Outro:
So come with me, to the edge of the night
Where the darkness and the light collide
We'll walk the line, between the good and the bad
And we'll see, who comes out on top in the end.
4 Kommentare mit 39 Antworten
"Der Algorithmus der Firma Open AI übertrifft, was künstlicher Intelligenz bislang möglich war: Die Software schreibt Texte, die sich so lesen, als seien sie von einem Menschen geschrieben. Thema und Stil lassen sich anhand von Schlagwörtern vorgeben, ChatGPT übernimmt den Rest."
Vor allem, und das ist die wesentlich gewichtigere Einsatzmöglichkeit von ChatGPT und Nachfolgern, beantwortet er Fragen, debuggt Programme und kann in vielen Bereichen assistieren. Im Gegensatz zu Hyperloop, Flugtaxen und Blockchain eine Technologie, die uns allen sehr bald im Alltag begegnen wird.
Ich finde diesen ganzen KI Kram echt gruselig und das geht auch alles weit über meine Gehirnleistung hinaus überhaupt zu verstehen wie das funktioniert. Hab kürzlich mit meiner Freundin "Detroit: Become Human" gespielt. Ist jetzt kein supertiefgründiges Game aber das Thema wird da ganz gut dargestellt. Bin da auf jeden Fall ganz bei Nick Cave.
Bei KI-Kunst bin ich auch raus.
Und Sie wird von Betrügern weltweit schon genutzt, um arglose Menschen hinters Licht zu führen. KI wird der Anfang vom Ende der Menschheit sein. Aber nichts ist größer als die Naivität von "Nerds"!
Jede/r, drie seine laut.de-Performanz noch nicht automatisiert hat, ist offiziell hängen geblieben.
Hallo, George Orwell!
Noch lacht ihr vielleicht. Mit dem flächendeckenden Einsatz von KI in allen erdenklichen Alltagsbereichen wird die Wahrhaftigkeit zu Grabe getragen, der Kitt der menschlichen Kommunikation, das Fundament unserer Zivilisationen. Willkommen in der Dystopie, ihr ahnungslosen Schafe.
Wie so etwas funktioniert, ist zwar ziemlich kompliziert, aber ich kann das denke ich ganz gut erklären:
Nehmen wir mal als Beispiel einen Prompt-to-Image-Modell wie stable diffusion. Hier ausprobieren: https://stablediffusionweb.com/
Zuerst braucht mensch Daten. Viele Daten. In diesem Fall Bilder mit einer festen Auflösung (512*512 Pixel) und einer möglichst genauen Beschreibung. Damit wird dann ein Modell generiert, was mensch sich so vorstellen kann, dass von jedem Bild jeder Bildpunkt angeschaut wird und die Farbe dieses Bildpunktes mit den Schlüsselwörtern verbunden wird. Bilder, in deren Beschreibung "blau" steht, werden häufiger blaue Pixel haben, und das wird abgespeichert. Ein bestimmter Bildpunkt hat dann die Wahrscheinlichkeit von 60% blau zu sein. Dazu werden dann auch noch informationen über Nachbarbildpunkte abgespeichert und evtl auch größere Strukturen. So funktionieren auch schon Bilderkennungsalgorithmen, und im Grunde ist es eine Weiterentwicklung davon. Es ist ein Bilderkennungsalgorithmus, aber der Trick ist, ein zufälliges Bild zu nehmen und den dann darauf loszulassen. Dann nehmen wir ganz viele zufällige Veränderungen an dem Bild vor und wählen jenes, dass dem Zielbild bzw. den Wörtern des Prompts am ähnlichsten ist. Das wiederholen wir viele Male, bis wir bei einem Bild angekommen sind, dass der Bilderkennungsalgorithmus als das erkennt, was der Benutzer im Prompt eingegeben hat.
Ich denke nicht, dass Menschen im Kunstbereich vollkommen ersetzt werden. Ich finde es eher spannend und interessant als bedrohlich. Die Cover aller meiner Alben sind von diesem Algorithmus erstellt, zumindest die Grundlage davon. Es ist auch immer noch der Mensch, der den Prompt schreibt und das Ergebnis auswählt.
Aber, aber…..ich WILL den Hyperloop!
Danke Caps für die gute Erklärung!!! Bedrohlich finde ich den Gedanken an die Dinge, die wir Menschen immer tun wenn es irgendeine neue Technik gibt. Traumatisierte Soldaten, die bewaffnete Drohnen gesteuert haben gibt es bald nicht mehr, weil eine KI den Job übernimmt. Super! Natürlich wird es auch für gute Dinge genutzt werden die den Alltag erleichtern. Bin da aber ein bisschen bei OSpann und sehe das ganze Tun von manchen Wissenschaftlern kritisch. Es gab doch vor einigen Jahren dieses Experiment mit dem künstlichen schwarzen Loch. Bei sowas bekomme ich als jemand der keine Ahnung hat einfach Angst XD
Wir wissen so viel und können so vieles tun woran kein Mensch vor 150 Jahren gedacht hätte. Aber wir sind trotzdem noch genau so blöd was unser Handeln im Bezug auf Konflikte, allgemeine Nöte, Diskriminierung und Ausbeutung angeht. Die Menschheit ist echt ganz schön verrückt.
Natürlich sind neue Technologien oft auch mit Gefahren verbunden, aber die Gefahren resultieren aus dem Umgang der Menschen damit. Bis zur KI-Singularität dauert es noch ein bisschen (hoffen wir mal, dass das kein "Nur die reichsten fünf Menschen werden einen Computer besitzen" ist), und vorher liegt es am Menschen. Und da habe ich mehr Angst vor den Elon Musks und Frank Thelens dieser Welt, bzw angesichts ihres Einflusses, als vor ChatGPT oder diesem Experiment, dass zu keinem Zeitpunkt die Gefahr mit sich trug, dass ein stabiles schwarzes Loch entsteht.
Das war damals einfach nur richtig mieser click- bzw buy-bait mit dem schwarzen Loch.
Ja das stimmt auf jeden Fall! Ohne Menschen die da Unsinn mit machen sind auch Handfeuerwaffen und Messer echt schöne Dinge. Aber du weisst schon das Frank Thelen einen steifen bekommt wenn er liest, dass du ihn in einem Satz mit deinem Helden nennst!
Hoffe du meinst "seinen"
Jo natürlich
Gut, einigen wir uns darauf, dass Frank Thelen ein gefährlicher Dummkopf ist.
In Fragen rund um KI vertraue ich nur dem Bauchgefühl des lautusers. Er hat immerhin "I, Robot" gesehen und seine Schlüsse draus gezogen.
Meintet ihr Frank Thelen oder eher Peter Thiel? Frank Thelen sicher ein reicher Agenturensohn, was den Einfluss eingeht aber eher niedriglöhner.
What a time to be alive. Endlich versteh ich das Ende von Metal Gear Solid 2.
Frank Thelen wegen seines Rumgeisterns in Talkshows und seiner Politiknähe.
Frank Thelen, einfach weil er seine Einfältigkeit dauernd ins Fernsehen trägt. Und weil er seine "Fans" abzieht.
Stimme Caps zu. Ein Bekannter von mir arbeitet als Dozent in Amsterdam an künstlichen Intelligenzen. Er sagt, die ganzen Ängste kommen vor allem von Menschen, die sich nicht mit der Materie auskennen. K.I.s werden seiner Meinung nach nie über den Status von sehr nützlichen, klugen Werkzeugen hinauskommen - rein philosophisch, aber auch logisch und operativ sei das ziemlich abwegig.
Finde ChatGPT oder küntlich generierte Bilder eher aufregend als daß sie eine Bedrohung für die Kunst im Speziellen sein könnten. Gerade ChatGPT hat heute offensichtlich noch sehr große Schwierigkeiten damit, allein schon grundlegende westlich-musiktheoretische Grundlagen zu begreifen, die im Grunde genommen mit einfachster Mathematik oder Statistik zu bewältigen sein müssten. Will nicht sagen, diese Probleme seien unlösbar. Aber eher, daß Kunst ganz einfach nichts ist, woran diese K.I.s wesentlichen Schaden begehen können.
Ähnliche Ängste gab es übrigens auch, als die Photographie eine neue Technologie war. Die Möglichkeit in Minutenschnelle sehr realistische Bilder zu erschaffen schien für manche Menschen die Malerei an sich zu bedrohen. Mittlerweile ist Photographie selbst als Kunstform etabliert.
Ähnliches wird auch mit KI-generierter Kunst der Fall sein. Wichtig ist, wie ragi sagt, dass diese Algorithmen nur Werkzeuge sind. Sie können nur schon existierendes nachahmen und in der Regel werden derartige Erzeugnisse erst durch die Selektion des Menschen (und dessen Eingabeparameter, natürlich) zu Kunst. Als ich zum Beispiel das Cover zu 17 UHR STEINE (hört es auf Spotify, lasst die monatlichen Hörerzahlen nicht weiter zurückgehen, MC HOOBEE braucht euch!) mit stable diffusion gemacht habe, habe ich viele verschiedene Prompts ausprobiert und viele Versuche gemacht und dann schließlich das ausgewählt, was ich am besten fand. Dann das etwas überarbeitet und die Schriftzüge hinzugefügt. Das Cover wurde nicht von einer KI gemacht, sondern von mir mit Hilfe einer KI.
Musik ist nicht ChatGPTs Stärke, aber da wird demnächst auch noch einiges kommen. Zuvor war ja schon zb mit Markov-Ketten sehr spannende generative Musik möglich.
Bin da tatsächlich auch eher auf der KI-skeptischen Seite. Nicht so sehr weil ich Angst habe, dass die sich irgendwann so weiterenwickelt, dass die Roboter aufmarschieren, sondern aus deutlich banaleren Gründen.
Dass der ganze Kram, der jetzt gerade raus kommt, auch seine Nutzen hat, möchte ich nicht bestreiten. Bin mir nur nicht sicher, ob der realen Welt letztenlich der Nutzen oder Schaden überwiegen wird.
Dass man sich irgendwann kaum noch sicher sein kann, ob die eigenen Such- oder Supportfragen richtig beantworter werden, weil alles mit ChatGPT-Antworten vollgemüllt ist und die AI nicht zwischen korrekter und falscher Info unterscheiden kann, dass jeder Hanspeter irgendwann eine fotorealistisches Fake-Video erstellen kann, indem Biden sagt, dass er gerne Kinder verspeist, dass schaffende Künstler es noch schwieriger haben, entlohnt zu werden, weil Stable Diffusion etc es halt billiger machen und wir irgendwann hauptsächlich dauerrecycleter KI-Kunst ausgesetzt sind und neue, kreative Impulse es in Kunst und Wissenschaft noch schwerer haben, sich durchzusetzen, sind mMn alles halbwegs mögliche und beschissene Szenarien.
Auf der Habenseite steht dann...was eigentlich genau? Ist natürlich ohne Frage cool, wenn Capsi sich relativ einfach ein schniekes Albencover erstellen kann, prpgrammierunerfahrene auch einfache Apps erstellen können und -erfahrene etwas weniger an den Grundlagen arbeiten müssen. Wenn sich Vorlagen für formale Schreiben blitzschnell erstellen lassen etc.. Aber den ultrahohen Nutzen kann ich da bisher noch nicht entdecken. Ein relativ hohes Schadpotenzial dafür schon.
Das ist natürlich auch ein Punkt. Bei der schieren Masse an Kunst, die jeder dank der Zugänglichkeit von Technik heute hat, fühlt sich die Auswahl jetzt schon erdrückend an. Das kann natürlich kurzfristig alles noch extremer werden.
Bin aber optimistisch, und denke, das Bedürfnis nach innerer Resonanz, das wir über ein Kunstwerk mit dem Künstler bekommen, ist wesentlich. Es gehört dazu, daß wir uns mit einem Menschen verbinden, der ein Phänomen ähnlich oder komplett anders wahrnimmt - daß dieser es geschaffen hat. Ein geniales Imitat einer KI läßt mich wegen der Fortschrittlichkeit der Technik staunen, aber nicht weil es mich berührt. Da projiziere ich mal ganz unbesonnen von mir auf die Mehrheit und denke, es wird den meisten so gehen.
Und: Ja, Deep Fakes werden den Schwurblern viel Material liefern. Wenn sie jetzt schon auf die hanebüchsten Geschichten abgehen, will ich mir nicht vorstellen, wie radikal sie z.B. ein Fakevideo "Baerbock bei den Bilderbergern" machen würde. Einen Schaden fürs Außer-Künstlerische kann ich eher vermuten.
"Dass man sich irgendwann kaum noch sicher sein kann, ob die eigenen Such- oder Supportfragen richtig beantworter werden, weil alles mit ChatGPT-Antworten vollgemüllt ist und die AI nicht zwischen korrekter und falscher Info unterscheiden kann,"
Durch die Selektion der Trainingsdaten läsdt sich das schon vermeiden. Und wenn du dir anschaust, wie gut ChatGPT bereits fragen beantwortet, finde ich deinen Einwand recht tendentiös. Oder hast du irgendwas, um diese Befürchtung zu unterfüttern?
"Auf der Habenseite steht dann...was eigentlich genau? "
Sehr, sehr großes Potential auf verschiedenen Gebieten. Ein Beispielist Data-Driven Modelling, eine Methode um Näherungslösungen für nicht-lineare, hochdimensionale Differentialgleichungen zu finden. Diese sind auf viele Gebieten nützlich - eigentlich eine maßlose Untertreibung, nichtlineare DGL findet Mensch überall, von Modellen zu Pandemien über Fluid Dynamics über Materialforschung über Landwirtschaft über Hochwasserschutz über Effizienz in Maschinenbau und Energiegenerierung. Mit (nichtlibearen) DGL lassen sich allgemein alle Systeme, die sich verändern, modellieren. Und data driven modelling ist da gerade der heiße scheiß, der "bessere" Lösungen "günstiger" und "schneller" liefert. Einführung für Interessierte (für Englischsprachige mit uni-mathematik-grundlagenwissen):
https://www.youtube.com/watch?v=2VBN_dJZLWc
Ferner spielst du den Supportaspekt ganz schön runter finde ich. Algorithmen können und werden den Menschen da ganz viel unbefriedigende Arbeit abnehmen.
Natürlich kann mensch sich auch Gefahren überlegen, aber es gibt kaum eine menschliche Erfindung, zu der mensch sich nicht Myriaden von Gefahren ausdenken kann. Und das ist ja auch richtig und wichtig, um die vermeiden zu können, falls sie realistisch sind. Ich sehe hier aber die eigentliche Gefahr außerhalb, und zwar in den großen Unternehmen mit big data, die damit ein Stück weiter in eine von Konzernen regierte Welt gehen können.
"Durch die Selektion der Trainingsdaten lässt sich das schon vermeiden"
Gut, habe ich mir schon gedacht, dass das als Einwand kommt. Meine Frage dabei ist halt wie praktikabel das überhaupt wäre. Das Modell hinter ChatGPT verschlingt ja Unmengen an Daten, um zu dem zu werden, was es ist. Wie realistisch ist es denn da zu sagen, dass man da gut selektieren könnte ohne dass das einen menschlichen Mehraufwand bedeuten würde, der das ganze überhaupt nicht mehr rentabel macht? Wenn es zig Fachleute und Experten bedürfte, die masseweise einschätzen müssen, was gute und schlechte Daten sind, dann stellt sich ja vielleicht auch irgendwann die Frage, ob deren Zeit wirklich besser für Maschinentraining oder tatsächliche Kommunikation von Fachwissen verwendet wird, oder nicht?
"Ein Beispielist Data-Driven Modelling, eine Methode um Näherungslösungen für nicht-lineare, hochdimensionale Differentialgleichungen zu finden."
Ja, da hast du natürlich vollkommen recht. Den Nutzen zum Beispiel im wissenschaftlichen Bereich, wo du dann auch relativ saubere oder kontextuell gebundene Datensätze aus denen du Erkenntnisse ziehen kannst, möchte ich überhaupt nicht absprechen. Der ist natürlich enorm. Und auch wenn ich das selbst verallgemeinernd als KI-Skepsis formuliert habe, ging's mir eigentlich selektiver um KIs wie halt eben ChatGPT, Stable Diffusion die auf sehr allgemeinen menschlichen Kommunikationsebenen arbeiten und ihre Daten recht wahllos aus dem Internet beziehen (müssen).
"Ferner spielst du den Supportaspekt ganz schön runter finde ich."
Das kann gut sein. Ist halt nur mein anfänglicher Eindruck mit bisher auch vielleicht noch zu begrenzter Interaktion mit dem Ganzen. Deswegen auch die teilweise Formulierung in Frageform. Kann sein, dass sich meine Meinung, wenn mir da ein paar mehr konkrete Beispiele über den Weg laufen, auch schnell ändert.
Der ganze KI-Hype in jüngerer Zeit hat für mich auch so ein bisschen nen Crypto-Bro-Vibe, der da wahrscheinlich auch noch negativ reinspielt, wo dann KI genau wie vorher Crypto als Lösung für Alles und Jeden hochgehypt wird.
Und da sollte man vielleicht auch anmerken, dass große KI-Modelle halt auch alles andere als billig sind. Ich glaube OpenAI hat jährliche Kosten von ner Milliarde oder so (weiß jetzt nicht ob für ein bestimmtes Modell oder insgesamt) und bietet jetzt gerade halt vieles semi-umsonst an, um Bewusstsein und Nachfrage zu schaffen. Wie das dann ausschaut, wenn solche Modelle, die nur von wenigen großen Playern überhaupt bezahlt werden können dann irgendwann auch Profit abwerfen müssen und wozu das alles führen könnte, ist dann auch so ne Frage. Aber das hast du ja auch schon erwähnt.
"dass jeder Hanspeter irgendwann eine fotorealistisches Fake-Video erstellen kann, indem Biden sagt, dass er gerne Kinder verspeist,"
Gefälschte Fotos gibt es, seit es Fotos gibt. Gefälschte Filme, seit es Filme gibt. Sicherlich wird das Fälschen einfacher und die Fälschungen werden besser, aber gleichzeitig wird die fake-Erkennung besser. Denn da es sich um Computerprogramme handelt, die per definitionem immer einem gewissen Determinismus unterworfen sind, lässt sich so ein Fälschung auch sehr leicht als solche identifizieren. ChatGPT erkennt die eigenen Antworten übrigens auch nach geschicktem Umstellen und Umformulieren ziemlich sicher.
"dass schaffende Künstler es noch schwieriger haben, entlohnt zu werden, weil Stable Diffusion etc es halt billiger machen "
Das wird mMn schon etwas verändern. Und es ist nicht der erste technische Fortschritt und sicher nicht der letzte, der Berufe (teilweise) obsolet macht. Der Buchdruck machte Schreiber überflüssig und die Photographie machte es Potraitmalern sicherlich schwieriger. Mit dem Aufkommen von elektronischen Computer wurden alle menschlichen Computer arbeitslos. Natürlich ist das in Einzelschicksalen manchmal traurig, aber das eigentliche Problem ist mMn unser neoliberales Verständnis von Arbeit(-slosigkeit). Eigentlich ist es ein Vorteil, dass wir weniger Arbeit in Design, Illustration, Architektur und Kunst brauchen. Weniger Arbeit ist im Prinzip immer gut.
"wir irgendwann hauptsächlich dauerrecycleter KI-Kunst ausgesetzt sind und neue, kreative Impulse es in Kunst und Wissenschaft noch schwerer haben, sich durchzusetzen,"
Da Kunstschaffende oft ohne monetäres Interesse aus dem Bedürfnis heraus, etwas zu erschaffen oft die bedeutensten und besten Werke schaffen (m.M.n.) und viele Menschen auch in Zeiten hervorragend reproduzierender Algorithmen nicht auf menschlich gemachte Kunst verzichten wollen, wird es dort kaum an Impulsen mangeln. Gerade wenn die generischen Werke, die Algorithmen nachmachen können, keine Geldquelle mehr für "Künstler" sind, die aus rein monetären Gründen Kunst machen, sollte mehr Raum bleiben für echte Kreativität.
Den Einwand mit Wissenschaft verstehe ich aus Wissenschaftsperspektive gar nicht. Da ist ein Werkzeug, dass uns viel mühseelige und wenig fruchtbare Arbeit abnehmen kann und Potentiale bietet, Sachen zu machen, die früher einfach aufgrund von Limitationen nicht möglich waren, und du sagst, dass es neue Impulse schwerer haben werden? If anything dann haben Wissenschaftler durch diese Algorithmen mehr Zeit für Ideen und weniger Limitationen.
Konkrete Beispiele: ChatGPT vs Klausuraufgaben:
https://www.youtube.com/watch?v=SS24iTTOn7o
"Der ganze KI-Hype in jüngerer Zeit hat für mich auch so ein bisschen nen Crypto-Bro-Vibe, der da wahrscheinlich auch noch negativ reinspielt, wo dann KI genau wie vorher Crypto als Lösung für Alles und Jeden hochgehypt wird."
Ja, blockchain ist zu einem Monster geworden und AI ist genauso ein hohler Begriff im Grunde, deswegen versuche ich auch möglichst von Algorithmen und Modellen zu sprechen. Der Bitcoin-Hype war halt eine hässliche Ausgeburt des Kapitalismus, again.
"Und da sollte man vielleicht auch anmerken, dass große KI-Modelle halt auch alles andere als billig sind."
ich habe billig absichtlich in Anführungszeichen gesetzt, da ich damit computationally inexpensive meinte, und das bezieht sich auf die Ausführung, nicht die Entwicklung.
"Gut, habe ich mir schon gedacht, dass das als Einwand kommt. Meine Frage dabei ist halt wie praktikabel das überhaupt wäre. Das Modell hinter ChatGPT verschlingt ja Unmengen an Daten, um zu dem zu werden, was es ist. Wie realistisch ist es denn da zu sagen, dass man da gut selektieren könnte ohne dass das einen menschlichen Mehraufwand bedeuten würde, der das ganze überhaupt nicht mehr rentabel macht? Wenn es zig Fachleute und Experten bedürfte, die masseweise einschätzen müssen, was gute und schlechte Daten sind, dann stellt sich ja vielleicht auch irgendwann die Frage, ob deren Zeit wirklich besser für Maschinentraining oder tatsächliche Kommunikation von Fachwissen verwendet wird, oder nicht?"
Oft lässt sich die Qualität von Daten mit relativ einfachen Heuristiken bemessen. bspw. kannst du antworten von stack overflow nehmen und die bewertungen als Gewichtung für die Qualität der Antworten. Oder die Anzahl von Zitierungen wiss. Artikel. Die Suchalgorithmen von Google und Co. liefern oft auch schon eine recht gute, grobe Rang(Rank )folge von Daten. Das ist fehlerbehaftet, ja, aber durch die schiere Menge an daten wird das ausgeglichen (und die Kombination verschiedener Heuristiken). Und ferner, was glaubst du,wie oft hat eine IT-Support-Mensch mit dem gleichen Problem zu tun? Selbst wenn alles menschlich überprüft werden müsste, wäre es nach kurzer Zeit effizienter das Handverlesene Modell zu nutzen statt der Menschen, die das gleiche manuell viele Male machen. Und es gibt ja immer noch die möglichkeit eine Stufe höher Menschen zu haben, die alles bearbeiten, was die Algorithmen nicht schaffen.
Achso, vielleicht nochmal zum Verständnis: Das Training eines solchen Modells ist sehr aufwändig und dauert sehr lange. Dabei entsteht dann ein Modell, dass quasi eine große Datei ist (bei stable diffusion zb mehrere GB), in der nur noch das Modell ist, nicht mehr die Daten, aus denen es entstand. Dieses Modell dann etwas machen zu lassen benötigt mehrere Magnituden weniger Rechenleistung und -zeit. Ist ein Modell einmal trainiert, arbeitet es sehr effizient.
Naa gut, Capsi. Aus deinen digitalen Munde klingt das dann alles schon etwas überzeugender.
Is mir grad über den Weg gelaufen:
https://www.zdnet.com/article/chatgpt-can-…
https://m.youtube.com/watchv=jmmawolzwCs
1.25-1.35
Nick Cave darf sich seine maximal prätentiöse Haltung gepflegt in den Allerwertesten schieben und sollte vielleicht mal lieber reflektieren, warum es für eine KI so einfach ist, Texte seiner Machart so glaubwürdig nachzuahmen. Bei dem brauch ich nur die Fresse sehen und alles was der ausstrahlt, ist für was für einen unglaublich tollen und tiefsinnigen Künstler er sich hält.
"warum es für eine KI so einfach ist, Texte seiner Machart so glaubwürdig nachzuahmen."
Wo das denn? Abgesehen von der vagen Gemeinsamkeit "benutzt religiöse Begriffe" ist der Songtext doch ultra generisch und hat kaum was mit Cave's Lyrik gemein.
Davon mal abgesehen ist jemandes vermeintlichen Tiefgang mit ”dem brauch ich nur in die Fresse zu schauen" zu kritisieren natürlich, natürlich auch ein formvollendetes Beispiel feinster Kommentarspaltenironie. Ob das wohl ein Chatbot hinkriegen würde?
Ist ja auch ein toller und tiefsinniger Künstler.
Und leider langweilig und prätentiös af, da bin ich schon bei Dudebro, auch wenn Caves Fresse natürlich nichts damit zu tun hat.
Kannst du auch einen Text im Stile der Fantastischen Vier oder Fettes Brot schreiben?
Verse 1:
Ich bin der Rapper mit dem Flow, der niemals stirbt
Ich bin der Rapper, der die Party richtig zum kochen bringt
Ich bin der Rapper, der die Leute mit meinen Texten begeistert
Ich bin der Rapper, der immer für eine Überraschung gut ist
Refrain:
Wir sind die Fantastischen Vier, wir rocken jede Bühne
Wir sind die Fantastischen Vier, wir machen jede Party zur Sause
Wir sind die Fantastischen Vier, wir sind die Kings der Rap-Szene
Wir sind die Fantastischen Vier, wir sind die Besten, das ist klar gesehen
Verse 2:
Ich bin der Rapper mit dem Beat, der niemals schweigt
Ich bin der Rapper, der die Massen mit meinem Style beeindruckt
Ich bin der Rapper, der die Crowd mit meiner Energie begeistert
Ich bin der Rapper, der immer für eine gute Zeit sorgt
Refrain:
Wir sind Fettes Brot, wir bringen jeden zum Tanzen
Wir sind Fettes Brot, wir machen jede Party zum Erlebnis
Wir sind Fettes Brot, wir sind die Meister des Rap-Spiels
Wir sind Fettes Brot, wir regieren die Szene mit Stil
"Wir sind die Fantastischen Vier, wir sind die Besten, das ist klar gesehen"
Welch kühne und erhabene Poesie!