Zum Inhalt der Seite gehen


so langsam converged ein teil der ki-forschung auf "llms sind doch nur statistikmaschinen" und ihre problemlösungskompetenz ein "bag of heuristics".

wann diese information "im markt" (den broligarchs) ankommt, wird abzuwarten sein.

wsj.com/tech/ai/how-ai-thinks-…

teilten dies erneut

Als Antwort auf Michael Seemann

ich finde es so witzig, dass mir alten kulturwissenschaftler mit ein bisschen poststrukturalistischem sprachverständnis llms sofort verständlicher waren, als den ganzen mathe postdocs aus den eliteunis.

Maxi 10x 💉 hat dies geteilt.

Als Antwort auf Michael Seemann

der aktuelle ki-hype ist auch resultat der allgemeinen abwertung geisteswissenschaftlicher bildung.
Dieser Beitrag wurde bearbeitet. (1 Woche her)

teilten dies erneut

Als Antwort auf Michael Seemann

das verständnisproblem liegt m.e. aber weder in der informatik, noch in der mathematik, sondern in der kognitionswissenschaft. die ist m.e. komplett auf dem holzweg, weil sie mit gewalt versucht, sich ein "mind" vorzustellen, dass als "agent" frei dinge tut & denkt und sich dafür ein "world model" baut.

was quatsch ist. man muss sich intelligenz von den infrastrukturen her denken, als orientierungswissen innerhalb einer konkreten umwelt, das nicht im kopf sondern im austausch entsteht.

Dieser Beitrag wurde bearbeitet. (1 Woche her)

axebos hat dies geteilt.

Als Antwort auf Michael Seemann

alpha go wurde geschult auf die umwelt "go" und findet dort erfolgreiche pfade, llms wurde auf die umwelt "semantik" trainiert und findet dort plausible pfade.

alle anwendung von machine learning kann als aneignung eines orientierungswissens zur navigation konkreter umwelten begriffen werden und dann versteht man auch, dass man mit dem ansatz zwar manchmal auch bisher unbetretene (plausible, manchmal sogar richtige) pfade finden kann, aber eben kein "verständnis der welt".

wer hat das schon?

Dieser Beitrag wurde bearbeitet. (1 Woche her)

axebos hat dies geteilt.

Als Antwort auf Michael Seemann

das, was wir den machinen voraus haben ist – nein, auch kein verständnis der welt– höchstens aspekte davon – aber unsere viel, viel, viel, viel komplexere umwelt und die milliarden arten, mit denen wir mit ihr verbunden sind.

das führt dazu, dass wir dinge "ausdrücken" wollen, also dinge erzählbarmachen, die bisher nicht erzählbar waren.

das ist die entscheidende intelligenzoperation, die die machinen nicht leisten können.

denn das geht nur durch die verbindung: mit der welt und mit anderen.

Dieser Beitrag wurde bearbeitet. (1 Woche her)

axebos hat dies geteilt.

Als Antwort auf Michael Seemann

ich finde die kurzversion meiner these so am verständlichsten:

llms sind keine modelle eines "gehirns/geistes/minds/weltmodell" sondern ein _modell unserer erwartungen_.

texte wurden von menschen für ein publikum geschrieben, das bestimmte spracherwartungen hat. erwartungen werden erwartet.

schreiben ist ein triangulationsprozess zwischen dem, was man ausdrücken will und den erwartungserwartungen.

die llm durchmisst diese erwartungen mit statistik und kann erwartungen so reproduzieren.

Dieser Beitrag wurde bearbeitet. (1 Woche her)

axebos hat dies geteilt.

Als Antwort auf Michael Seemann

llms sind semantische spiegel und ki-bros cyber-narzisten
Dieser Beitrag wurde bearbeitet. (1 Woche her)

axebos hat dies geteilt.

Als Antwort auf Michael Seemann

nachtrag: semantiken sind erwartungen, genauer: erwartungserwartungen.

wenn ich ein wort spreche, erwarte ich (manchmal vergeblich), dass ihr das kennt und ihr erwartet (manchmal vergeblich), dass ich worte verwende, die ihr kennt. sprache ist konvention und damit gemeinsame infrastruktur, wie eine straße.

und wenn man etwas denken oder ausdrücken will, nutzt man diese gemeinsame infrastruktur, mit der man zwar nie genau das ausdrücken kann, was man sagen will, aber hey, oft nah genug dran.

Als Antwort auf Michael Seemann

Nur darf man den Begriff der Erwartung nicht zu psychologisch verstehen. Sonst klingt das, als hätte ich die "Regel nach der das Wort gebraucht wird" irgendwie vollständig im Kopf. Zur Infrastruktur-Metapher gehört (IMO) aber eben auch der Körper (Gewohnheit) und Kontextsensitivität. Und die Möglichkeit, in einer gemeinsam geteilten Kultur solche Regelerwartungen durch viele Ebenen des verschachtelten Gebrauchs so zu festigen, dass sie unerschütterlich feststehen.
Dieser Beitrag wurde bearbeitet. (1 Woche her)
Als Antwort auf Jörg Volbers

ja, erwartung kann hier auch einfach als konditionierung verstanden werden und nicht abstraktes verständnis, sondern als sehr kleinteilige sensibilität.

wenn nach "ich" sofort "köln" kommt, ist die erwartung schon gestört, noch bevor ich nur anfangen habe "verstehen" zu wollen.

Dieser Beitrag wurde bearbeitet. (1 Woche her)
Als Antwort auf Michael Seemann

Wie auch die anderen im Nachbarthread finde ich Deine Verwendung von „Semantik“ etwas seltsam. Sowohl in der Informatik als auch in der Linguistik scheint mir die Semantik [sic!] von „Semantik“ genau das zu sein, was Du den LLMs oben absprichst: Das, was man durch Sprache „ausdrücken“ will, das, was durch Sprache bezeichnet werden soll, auf das verwiesen werden soll.
Als Antwort auf Benjamin Braatz

ja, davon muss man sich lösen, wenn man es verstehen will.

das problem ist halt, dass es der poststrukturalismus nie aus der nische geschafft hat, wahrscheinlich weil die texte zu schwierig sind.

aber mit der llm haben wir jetzt den beweis, dass sie recht haben, sorry, ihr müsst alle nacharbeiten.

Dieser Beitrag wurde bearbeitet. (1 Woche her)
Als Antwort auf Michael Seemann

sag ich ja, was uns Menschen ausmacht ist das Erzählen. Maschinen zählen aber erzählen nicht. Hab neulich einen vortrag über "die vermessung der welt" gehalten, wo es im kern um "zählbarkeit und kapitalismus" ging.
Als Antwort auf Michael Seemann

ich reagiere immer kratziger auf so Aussagen wie „LLMs _wissen_ XY“, oder sie hätten etwas „gelernt“. Das ist so ein absurdes Verständnis von Wissen (im Sinn von JTB), lässt GOFAI mit tatsächlicher Wissensabbildung links liegen und überlegt dabei gar nicht, wofür genAI überhaupt ein „passender“ Anwendungsfall wäre (wo es sowieso gerade meist nur zu einem shiny user interface verkommt)

Ich bin seit Wochen versucht, mal was zu „Ein Sprachmodell ist ein _Sprach_modell“ zu schreiben 🙄

Als Antwort auf Michael Seemann

Ich verstehe nicht, inwiefern LLMs etwas mit Semantik zu tun haben, aber ich kenne eigentlich Semantik nur in der Bedeutung, wie es in der Linguistik verwendet wird. Wird das Wort anderswo anders verwendet?

axebos hat dies geteilt.

Als Antwort auf Jens Ohlig

@johl ich verstehe unter semantik die vielen arten und weisen, wie worte, begriffe, sätze, erzählungen untereinander in beziehung stehen.

ich weiß, dass viele sprachwissenschaftler von "bedeutungen" sprechen, aber bedeutungen sind nur effekte dieser beziehungen im sprechen.

axebos hat dies geteilt.

Als Antwort auf Michael Seemann

Das würde ich als Syntaktik und Pragmatik bezeichnen.

axebos hat dies geteilt.

Als Antwort auf Michael Seemann

siehste, das ist genau der Punkt von Semantik: wenn Du einfach wildewutz Worten eine neue Bedeutung zuweist, versteht keiner mehr, was Du sagen willst...

Von Wissenschaftlern definierte Fachworte umzubedeuten trägt nicht zum besseren Verständnis der Materie bei.

Edit: Ausserdem ist doch der *Punkt* von LLMs, dass sie Semantik ignorieren und ausschließlich mit Statistik arbeiten, oder habe ich schon wieder einen Quantensprung verpasst?

Dieser Beitrag wurde bearbeitet. (1 Woche her)

axebos hat dies geteilt.

Als Antwort auf Michael Seemann

da kann ich nicht dran rütteln, wenn Du grade den Eindruck vermittelst, dass wir nicht mehr dasselbe meinen, wenn wir von "Semantik" reden.
Dieser Beitrag wurde bearbeitet. (1 Woche her)
Als Antwort auf Autoerotic Defenestration

@danielaKay @johl im großen und ganzen sind unsere „semantikbegriffe“ auch durchaus kompatibel: probier es aus. versuche bedeutung als effekt des navigieren von semantik vorzustellen. bedeutung ist nicht, was ein begriff „meint“, sondern was er im konkreten akt des sprechen/hören/lesen/schreiben/denken auslöst - durch diese verbindungen.
Als Antwort auf Michael Seemann

@danielaKay @johl determiniert durch alle worte vor ihnen, aber auch den jeweiligen assoziationen des jeweils navigierenden, die nie völlig gleich - aber doch ähnlich genug sein müssen um „verstanden“ zu werden. aber verstehen ist für semantik erstmal weder hinreichend not notwendig.
Als Antwort auf Michael Seemann

@johl ja, aber AFAIK tun aktuelle KIs das nicht, oder?

Die einzige Info, die ChatGPT etc benutzen ist "dieser String kommt häufig in diesen Kontexten vor".

Selbst wenn dabei gefunden wird, dass zwei Strings oft in denselben Kontexten auftreten (und ich weiss tatsächlich nicht, ob sowas analysiert wird), findet die KI niemals raus, *warum* das so ist.

Weil wir da die Statistik verlassen und zu Semantik übergehen müssten, dh KIs müssten Weltwissen vorhalten.

Die Assoziationen, von 1/2

Als Antwort auf Autoerotic Defenestration

@johl denen Du sprichst sind derzeit AFAIK komplett bedeutungsleer. ChatGPT weiss nicht, warum VW und Golf oft synonym benutzt werden. Und es weiss auch nicht, warum sie manchmal genau *nicht* synonym sind.

2/2

Als Antwort auf Autoerotic Defenestration

@danielaKay @johl sorry, aber ich kann dir nicht weiterhelfen, wenn du nicht mal versuchsweise den kognitiven semantikbegriff loslässt.
Als Antwort auf Autoerotic Defenestration

@danielaKay
Weil Sonntag ist: Das Syntagma dieses Austauschs bleibt pragmatizistisch unbestimmt. Begriffe sind wofür wir sie benutzen.

Ich könnte ein paar Philosophinnen hier in die Kommentare rufen, wenn Bedarf nach weiterer Begriffsklärung besteht.

Jens, die Linguistik hat sich den poststrukturalistischen Semantikbegriff im Umweg über die US Literature Studies geborgt, da drüben Philosophie nur analytische sein durfte. Von da ist er zurück in die hiesige Linguistik gewandert.

@mspro @johl

Dieser Beitrag wurde bearbeitet. (1 Woche her)
Als Antwort auf jon ⚝

@yala @johl okay, aber aktuelle LLMs betrachten AFAIK Sprache nur als zufällige Token, die statistisch betrachtet werden.

Für mich, die ein völlig verstaubtes Computerlinguistik-Diplom irgendwo rumliegen hat, ist genau der Frustpunkt: dass alle Forschung zu Semantik, dh der *Bedeutung* von Zeichen über Bord geworfen wurde, und uns jetzt reine Statistik ohne Weltbild, ohne Beziehungen und Verknüpfungen als Intelligenz verkauft wird.

Als Antwort auf Autoerotic Defenestration

@yala @johl ChatGPT *weiss* nicht, warum "VW" und "Golf" häufig in ähnlichen Kontexten auftauchen. Es weiss nur, *dass* es so ist. Dass beide Worte jeweils eine Bedeutung "Automarke" haben und dass Golf eine Untermenge von VW ist, *weiss* das LLM nicht.

Genau die Bedeutungen und die Beziehungen gehen verloren.

Als Antwort auf jon ⚝

Ich glaube wir können an dieser Stelle wirklich den Schritt des Wechsels von positivistischem Strukturalismus nach de Saussure und dem angelehnten Konstruktivismus, welche beide eine in der Welt innehaftige Bedeutung voraussetzen, zu poststrukturalistischer Bedeutungsgenese im rhizomatischen Feld der differance mit nachvollziehen.
Ein solch performativer Wissensbegriff erlaubte dann die von Michael gemachten Schlüsse nachzuvollziehen.
@danielaKay @mspro @johl
Als Antwort auf jon ⚝

@yala @johl das ist IMHO zu feinkörnig.

Mein Punkt ist, dass LLM null Semantik egal welcher Couleur enthalten.

Als Antwort auf Autoerotic Defenestration

@danielaKay @yala @johl weil du semantik kognitiv denkst. lass das fallen und denk semantik als gemeinsame infrastruktur. bausteine zur konstruktion semantischer pfade.
Als Antwort auf Michael Seemann

vergleich des missverständnisses:

du fährst im auto fühlst dich frei, dabei ist deine autofreiheit sowohl ermöglicht als auch begrenzt durch das strassennetz.

du glaubst, semantik sei autofahren, ich sage: nein, sie ist das strassennetz, das das autofahren ermöglicht.

der beweis: llms haben es geschafft das strassennetz zu syndizieren und darin bots rumlaufen zu lassen.

Dieser Beitrag wurde bearbeitet. (1 Woche her)
Als Antwort auf Michael Seemann

@danielaKay @yala Mein Problem ist das hier: KI wurde lange Zeit als etwas erforscht, bei dem Bedeutungen in Knowledge Bases abgelegt werden, da die Beziehung zwischen Zeichen und Bedeutung arbiträr ist und explizit festgelegt werden muss.Das "Semantic Web" kommt aus dieser Denkrichtung, Semantik wird explizit ausgezeichnet, um sie maschinenlesbar zu machen.
Als Antwort auf Jens Ohlig

@danielaKay @yala Machine Learning betrachtet andere Tiefenstrukturen der Texte und nicht festgelegte semantische Metainformationen. Wenn ich das Semantik nenne, kann ich beide Ansätze nicht mehr vergleichen.
Dieser Beitrag wurde bearbeitet. (1 Woche her)
Als Antwort auf Jens Ohlig

@johl @danielaKay @yala naja, der semantikbegriff der in der symbolischen ki … wie soll ich sagen: mit dem holzhammer gezimmert wurde, ist natürlich nicht das, wovon ich spreche. semantik ist viel diffuser, aber eben auch viel reichhaltiger. sich den latent space einer llm wirklich mal in seiner komplexität vorzustellen, hilft dabei sich einen realistischeren semantikbegriff vorzustellen.
Als Antwort auf Michael Seemann

@danielaKay @yala Aber das ist doch dann schwierig, wenn man sagt, dass man implizit nicht von dem Semantikbegriff spricht, wie er sonst verwendet wurde und davon ausgeht, dass andere Menschen das teilen und verstehen, oder?
Als Antwort auf Jens Ohlig

@johl @danielaKay @yala naja, beides "meint" schon dasselbe, auf ne art, nur hat man das wort "semantik" in dem kontext halt etwas großzügig angewendet. aber ich kann das ohne verständnisprobleme integrieren.
Als Antwort auf Michael Seemann

@johl @danielaKay @yala und es ist halt überhaupt nicht semantisch unüblich, dass begriffe in den einen oder anderen kontexten leicht etwas anderes bedeuten. man nennt das auch "grenzobjekte"
Als Antwort auf Jens Ohlig

@danielaKay @yala Um das zu schärfen, dass hier ein anderer Kontext mit anderer Bedeutung gemeint ist, würde ich das explizit machen.
Als Antwort auf Jens Ohlig

@johl @danielaKay @yala aber ich sag mal deine spezifisches wissensgebiet der historie der ki forschung und informatische wissensobjekte, etc ist eher ein recht eingegrenztes territorium. müsste ich den begriff erst in alle richtungen abgrenzen, käm ich zu nichts.
Als Antwort auf Michael Seemann

@danielaKay @yala Hm. Ist denn für das Sprechen über KI nicht die Forschung daran und deren Geschichte relevant? Ich bin da verwirrt.
Als Antwort auf Michael Seemann

@danielaKay @yala Eine klassische Debatte :)

goodreads.com/quotes/12608-whe…

Als Antwort auf Jens Ohlig

@johl @danielaKay @yala naja, wieder ein beispiel, das zeigt, dass bedeutung nicht wortinhärent ist, sondern immer nur kontextbezogen bedeutungen bekommt. wir beweisen die ganze zeit meinen punkt?
Als Antwort auf Michael Seemann

@danielaKay @yala Wir sind uns absolut einig, dass Bedeutungen nicht wortinhärent sind. Ich würde argumentieren, dass es deshalb nötig ist, sie explizit zu machen und dass sie nicht aus anderen Strukturen des Texts erschlossen werden können.
Als Antwort auf Jens Ohlig

@johl @danielaKay @yala aber weil sie kontextabhängig sind, kann ich kein wort letztgütig gegen alles abgrenzen. das "explizit machen" funktioniert immer nur lokal, also wieder in definierten kontexten.

und der kontext einer erwarteten zuhörerschaft ist also auch teil der wortbedeutung und ich denke, man kann erwarten, dass man das bei der interpretation mit einbezieht.

Als Antwort auf Jens Ohlig

@danielaKay @yala Diese Beschäftigung mit der Bedeutung, die nicht wortinhärent ist, nenne ich Semantik, andere Formen der Texterschließung nenne ich anders. Daher mein Unverständnis.
Als Antwort auf Jens Ohlig

@johl @danielaKay @yala redet ihr hier nicht eigentlich ueber Semiotik? Auch Worte kannst du als Symbole begreifen. Und bei GOFAI war die Idee, den gemeinten Begriff (ueber das Symbol hinaus) eindeutig semantisch zu bezeichnen. Symbole in Sprache sind durch die Pragmatik immer verkuerzt, der Kontext stellt die Bedeutung her. Ein Sprachmodell vermag in beide Richtungen „besser“ semiotisch zu arbeiten, ohne Semantik explizit kodieren zu muessen.
Als Antwort auf stefan

@stk @danielaKay @yala Semantik ist eine wichtige Disziplin der Semiotik, insofern geht es auch darum, das ist korrekt.
Als Antwort auf Jens Ohlig

@stk @danielaKay @yala Aber ja, wenn @mspro statt Semantik Semiotik meinte oder aus irgendwelchen Gründen die Begriffe nicht unterscheidet, dann ist die für mich verwirrende Aussage am Anfang des Threads natürlich viel verständlicher.
Als Antwort auf Jens Ohlig

@johl @danielaKay @yala was so ein bisschen qed ist, weil je nach Kontext, mit dem man auf die Aussage schaut, kann man die beabsichtigte Bedeutung rekonstruieren und es wird plausibel. Bei eindeutiger Verwendung des Begriffs wackelts dann auf einmal.

tl;dr, mspro ist ein Chatbot!

Als Antwort auf Jens Ohlig

@johl @stk @danielaKay @yala semiotik ist für mich die einfach die theorie von saussure, pierce, und anderen, den strukturalistischen zeichentheorien.

die poststrukturalistische sichtweise baut gewissermaßen auf saussure auf, geht aber eben einen entscheidenden schritt davon weg und sagt, dass es das "bezeichnete" eben nicht gibt, sondern dass zeichen nur wieder auf andere zeichen verweisen, auf spezifische kontexte, bezüge und assoziationen, etc.

Als Antwort auf Michael Seemann

(pierce ist da schon nahe dran, aber bei ihm klingt der prozess immer recht eindimensional und die pragmatische schlussfolgerung gehe ich nicht unbedingt mit)
Dieser Beitrag wurde bearbeitet. (6 Tage her)
Als Antwort auf Michael Seemann

@johl @danielaKay @yala …was dich nicht davon abhält, zB „Wissen“ und „Intelligenz“ in dem Kontext zu verwenden :D
Als Antwort auf stefan

@stk @johl @danielaKay @yala ich bin da etwas offener, was diese begriffe angeht, weil sie mir eh zu unterbestimmt sind. da soll jeder gerne rumdefinieren.

ich finde ja spannend, was wir aus den begriffen machen. "intelligent" scheint mir in meiner semantischen beobachtung nur ein system, so lange wie wir ihr funktionieren nicht verstanden haben.

insofern glaube ich, dass llms, wie vorher taschenrechner und bilderkennung, aufhören werden, als intelligent zu gelten.

Als Antwort auf Michael Seemann

@stk @johl @danielaKay @yala

(ich fürchte, was nerds so schwierigkeiten macht, sich diese formen des wissens anzueignen, sind die nie eindeutig geklärten begriffe, die munter nebeneinander existierenden semantischen räume, der unterschiedlichen schulen und kein in einem nachschlagewerk für immer geklärten begriffe. auf das freie flottieren der zeichen (in theorie und praxis) muss man sich erstmal einstellen. es gibt zb. keinen denker, der sich je als poststrukturell bezeichnet hat, etc.)

Als Antwort auf Michael Seemann

@stk @danielaKay @yala Mein Hintergrund ist Linguistik und Literaturwissenschaft, deshalb kann ich deine Verständnisschwierigkeiten als Nerd mit dem Poststrukturalismus nicht so gut nachvollziehen, aber ich spreche dir deine Erfahrungen sicher nicht ab ;)
Als Antwort auf Jens Ohlig

@johl @danielaKay @yala ich find ja interdisziplinäre Betrachtungen oft sehr hilfreich. Und sei es wegen des Potenzials, Diskussionen _in jegliche Richtung_ mal aus der eigenen Suppe herauszubewegen und in einer anderen Fachlichkeit zu erden.
Als Antwort auf Jens Ohlig

Oha, wusst icht nicht @johl Was haltst Du davon, das OSI-Modell um 1 paar linguistische Layers nach oben zu erweitern? Die Layer8++ Protokollfamilie basierend auf generativer Transformationsgrammatik & den ersten Semantik-Layer9 & c.

Den Spasz hab ich mir ansatzweise bei 1em Vortrag gemacht. Allenthalben entrüstete Blicke der Inschinöre & als ich dann noch 1en Layer0 vorschlug, um auch Dark Fiber abbilden zu können, war man empört über so 1 Sakrilieg. 😎

@mspro @stk @danielaKay @yala

Als Antwort auf Jens Ohlig

ja, protokolllayer ist eigentlich eine gute metapher, denn das ist die sprache: ein protokolllayer.

das inkludiert, dass wir womöglich alle unterschiedliche implementationen des protokolls haben und nur weil wir dieselben signale austauschen, sie noch lange nicht dasselbe auf unseren machinen auslösen.

d.h.: „bedeutung“ ist grundsätzlich unzugänglich und wird auch nicht „übertragen“. alles was wir haben, ist das protokoll und unsere erwartungen an die erwartungen der anderen.

Dieser Beitrag wurde bearbeitet. (6 Tage her)
Als Antwort auf stefan

@stk @johl @harkank ja, das ist der witz. semantik ist nur „higher level syntaktik“. rules all the way down.
Als Antwort auf Michael Seemann

@johl @harkank ich bin mir nicht sicher, was du mit Leveln meinst. Ich meinte, dass nicht nur Syntaktik allein die Semantik transportiert, sondern halt erst im Zusammenspiel mit Pragmatik. (Und ist das nicht alles ein wenig… trivial? Oo)
Als Antwort auf Michael Seemann

@johl @harkank ich meinte, dass die Beschreibung als Protokoll-Layer doch nur eine andere Ausdrucksform des Zusammenspiels von Syntaktik und Pragmatik ist. Das Eine sind die reinen Zeichen, die übertragen werden, Pragmatik und Kontext führen erst dazu, dass sie in die „richtige“ Semantik führen. Also je nach Kontext ist eine Adressatin zB in der Lage, deine Aussage viel weiter oben zu „Semantik“ so zu verstehen, dass du damit „Semiotik“ gemeint haben könntest.
Als Antwort auf stefan

@johl @harkank (oder aber das tiltet, weil das Gegenüber versucht, wirklich „Semantik“ zu meinen und dann hakt es. Und mit „trivial“ meine ich, dass das evtl mega komplex konstruiert ist, aber halt auch sehr… basic Semiotik-Grundlagen-101 sein könnte.)
Als Antwort auf stefan

Sry, hab mich extrem verkürzt ausgedrückt. Das geht auf layer8 latürnich ganz anders los, denn Menschen sind ja kein Sprachmodell.

- Objekt- und Emotionserkennung, Gestik, Phonetik/Phonologie

-Morphologie also Wortbildung Generative Transformationsgrammatik , Syntax & Logik
usw.
Das ergibt mindestens 4 Layers wie bei TCP/P und die sind interagierend.

Die Semantik ibeginnt schon bei Layer 8 & zieht sich dann hinauf bis ganz oben.

@stk @mspro @johl

Als Antwort auf Erich M.

@harkank @johl das gilt halt, wenn du von Menschen sprichst. Wo du dann bei der GOFAI-Frage landest, wie man Semantik so modellieren kann, dass sie (innerhalb gewisser Grenzen) auch ohne einen menschlichen Interpretationsvorgang auswertbar ist ;)
Als Antwort auf stefan

das ist der punkt: m.e. _beweisen_ llms, dass semantik in der sprache selbst codiert ist und keine rummeinende sprecher braucht. semantik ist genau wie grammatik ein set von regeln, nur sind die regeln vielfältiger, complexer und fuzzyier, als dass man sie formalisieren könnte. aber man kann die regeln offenbar aus genug daten syndizieren und operationalisieren.

und auch wenn tausend disziplinen semantik anders definieren. sie liegen falsch.

Dieser Beitrag wurde bearbeitet. (6 Tage her)
Als Antwort auf Michael Seemann

@stk @harkank @johl bedeutung ist ein häufiger effekt von semantik, aber ist weder notwendig noch hinreichend für die existenz und funktionsweise von semantik.
Als Antwort auf Michael Seemann

@harkank @johl naja wenn du jetzt eine dir passende Begriffsdefinition aussuchst, die gerade zu deiner These passt, kann ich auch kontern: Nein, Semantik kommt ja aus einem Akt des Verstehens, ein LLM gibt nur Text/Sprache aus und das ist erst einmal nur Buchstabensuppe wenn dieser Kognitionsakt fehlt, peng, fertig.

Das klingt für mich gerade eher nach dem Philo-Pattern, sich sein persönliches Theorieinselchen zu schnitzen.

Als Antwort auf stefan

naja, du musst ja zugeben, dass llms „semantisch sinnvolle sätze“ konstruieren, also müssen sie die fähigkeit haben, semantische zusammenhänge richtig zu konstruieren. würde semantik am akt des verstehens hängen, wären llms schlicht unmöglich.
Dieser Beitrag wurde bearbeitet. (6 Tage her)
Als Antwort auf Michael Seemann

dass llms (in den allermeisten fällen) funktionieren ist eine tatsache, die man auch als kritischer mensch anerkennen muss und d.h. es gibt jetzt zwei interpretationsmöglichkeiten:

entweder man glaubt die llms "verstehen" (das ist die ki-bro interpretation) oder man muss zugeben, dass semantik etwas vom "verständnis" unabhängiges ist (meine interpretation).

semantik ist nicht bedeuten und verstehen, sondern die infrastruktur mit der wir bedeuten und verstehen.

Dieser Beitrag wurde bearbeitet. (6 Tage her)
Als Antwort auf Michael Seemann

@harkank @johl ich bin immer noch ziemlich überzeugt davon, dass du eigentlich ausdrücken möchtest, dass LLM das mit der _Pragmatik_ von Sprache ziemlich gut hinbekommen :)
Als Antwort auf stefan

@stk @harkank @johl nein, in meinem modell macht die unterscheidung von pragmatik und semantik einfach keinen sinn.
Als Antwort auf Michael Seemann

Als Antwort auf stefan

@stk @harkank @johl ich würde den wissensbegriff da erstmal gerne ausklammern und weiß auch nicht, wie er uns weiterhelfen soll. was "weißt" denn du, was über deine aneigneten semantiken hinausgeht?

semantik (meine erwartung an eure erwartungen, wie sich zeichen zueiander verhalten) ist für mich weder das zeichen, noch seine bedeutung, noch sein kontext, sondern immer schon das "zeichen in seinem kontext" und der ist immer konkret.

sehe da keinen platz für "pragmatik"

Als Antwort auf Michael Seemann

wobei man sich das halt nicht naiv vorstellen darf und den kontext auf die sprechsituation reduziert (die aber natürlich dazu gehört).

zum kontext in dem ich ein wort höre, gehören eben auch all die anderen male, wo ich dieses wort gehört oder selbst gebraucht habe, sowie die anderen worte, die ich mit ihm assoziiere und all die geschichten, die das wort möglich macht.

semantik ist immer das wort in der konstellation und beziehung zu anderen worten. siehe latent space.

Dieser Beitrag wurde bearbeitet. (5 Tage her)
Als Antwort auf Michael Seemann

@harkank @johl ich komme immer wieder zu dem Schluss, dass du Pragmatik meinst, dir aber einfach der Begriff Semantik besser dafuer gefaellt.

(Abgesehen davon, dass du Semantik ja auch erschliessen kannst in Zusammenhaengen, in denen du ein Zeichen bislang noch _nicht_ wahrgenommen hast, ganz ohne latent space, sondern durch logisches in-Beziehung-setzen)

Als Antwort auf stefan

ich kann semantiken erschließen, gerade weil ich bereits semantiken habe, die es mir erlauben einen neuen begriff zu erschließen. das können unter umständen auch "logische schlussfolgerungen" sein, oder metaphern oder erzählungen, oder erfahrungen, die aber alle eben auch nur angeeignete semantiken sind.

die vorstellung eines verstehens, dass außerhalb bereits angeeigneter semantik passiert ist schlicht infrastrukturvergessen.

Dieser Beitrag wurde bearbeitet. (5 Tage her)
Als Antwort auf Michael Seemann

@stk @harkank @johl mal kurz gefragt, wie du die trennung von semantik und pragmatik übereinbekommst.

wenn jemand denselben satz in relevant unterschiedlichen sprechsituationen spricht, dann ist das für mich auch semantisch ein anderer satz. für dich nicht?

ich vestehe, dass man für pragmatik nochmal einen extra untersuchungsschritt einrichtet, aber die konzeptionelle trennung von semantik kommt mir sehr konstruiert vor.

Als Antwort auf Michael Seemann

Um dem sehr interessanten Gespräch etwas hinzu zu fügen, würde ich ein konkretes Beispiel einwerfen: Warum sind fast alle Witze von LLMs sehr mies und funktionieren nicht? Ich würde behaupten, dass liegt zentral daran, was Michael zu beschreiben versucht und gute Ironie/Sarkasmus auf seine Definition von 'Semantik' beruht. Führt wohl auch dazu, dass es manchen Menschen schwerer fällt, diese besondere Kommunikation immer direkt zu verstehen. LLMs scheitern.
Dieser Beitrag wurde bearbeitet. (5 Tage her)
Als Antwort auf Weltzeitgeist

@stk @harkank @johl Viele Witze, insbesondere welche, die eine Wortwitz beinhalten, funktionieren ja ungefähr so, dass man bei der Straßennetzmetapher plötzlich bei der Pointe eine klitzekleine vorher nicht vermerkte Nebengasse durchläuft, um dann auf der anderen Seite wieder anzukommen, um den Witz verstanden zu haben. Deshalb fühlt sich Witze erklären auch so mies an, weil man dem anderen umständlich auf die andere Seite führen muss und nicht mehr durch die Gasse gehen kann.
Als Antwort auf Weltzeitgeist

@wackJackle @stk @harkank @johl die routing-theorie des witzes verstehe ich nicht ganz.

meine these wäre eher: jede form von humor erfordert eine regelverletztung, wenn eine llm also nicht zufällig einen gelernten witz reproduziert, wird sie außer stande sein, gute witze zu erzählen.

Als Antwort auf Michael Seemann

@stk @harkank @johl Ja, grundsätzlich sehe ich das auch so, deshalb habe ich Wortwitz nochmal hervorgehoben, welche oft durch einen Neologismus/Verballhornung eines Wortes oder nur eine spezielle Ausprache des bekannten Wortes funktioniert. Daher mein Bild für die quasi neu geschaffene kleine Gasse, durch die man hin durch kommen muss, um den Witz zu verstehen oder scheitert, wenn man die Gasse verpasst hat und später umständlich auf die andere Seite geführt werden muss.
Als Antwort auf Michael Seemann

@stk @harkank @johl Das nicht. Ich dachte mehr daran, dass mit Hilfe von guten Witzen/Wortwitzen, also am konkreten Beispiel, das worüber ihr geredet habt, leichter anderen zu vermitteln ist, weil es aus meiner Sicht sehr offensichtlich ist, warum es dort einen riesen Unterscheid zwischen Mensch/LLMs gibt. Aber man kann das ja einfach an Lieblingswitzen von den besten Comdiens mal konkretisieren..
Als Antwort auf Michael Seemann

@harkank @johl das Beispiel schrieb ich doch bereits: Wenn du zB Laien gegenueber diese Story erzählst, werden sie ggf grob folgen können, welche Bedeutung du damit meinst.
Wenn du das LinguistInnen oder PhilosophInnen so vorträgst, werden sie evtl die von dir beabsichtigte Bedeutung quasi mappen (dass Pragmatik gemeint ist), oder sie stutzen und fragen nach.
Als Antwort auf stefan

@stk @harkank @johl Dass LLMs es schaffen, Pragmatik ohne Semantik zu machen, war auch meine von dieser Diskussion inspirierte Idee: social.tchncs.de/@HeptaSean/11…
Als Antwort auf Michael Seemann

@stk @harkank @johl Es ist oft ein bisschen müßig, über Definitionen zu debattieren.

Zu sagen, dass „Bedeutung […] weder notwendig noch hinreichend für […] Semantik“ ist, ist zumindest gewöhnungsbedürftig, wenn Semantik gängig als „Bedeutungslehre“ übersetzt wird.

Du könntest es auch entweder als „LLMs sind (mehr oder weniger) gut darin, Semantik zu simulieren.“ formulieren oder einen neuen Begriff für was auch immer LLMs da tun verwenden.

Als Antwort auf Benjamin Braatz

@HeptaSean @stk @harkank Ich fand das auch gewöhnungsbedürftig, aber habe von @mspro erfahren, dass es hier im Fediverse niemanden gibt, der Semantik als Bedeutungslehre versteht und es deshalb für das Publikum hier nicht unverständlich ist. Geisteswissenschaftliche Diskutse, die das Wort anders verwenden, liegen schlicht falsch.
Als Antwort auf Jens Ohlig

@HeptaSean @stk @harkank Finde ich zwar unerquicklich, aber dann ist das halt so und für mich keine Diskussion, zu der ich sinnvoll etwas beitragen kann.
Als Antwort auf Jens Ohlig

@johl @HeptaSean @stk @harkank

das, was dich von llms unterscheidet ist das verstehen und das beinhaltet die möglichkeit für ein update der angeeigneten semantiken.

aber dafür muss man sich eben auch mal vom eingübten verständnis lösen und auf eine andere sichtweise einlassen. llms können das nicht, menschen schon.

Als Antwort auf Michael Seemann

@johl @HeptaSean @harkank ja, wenn man sich das passend hindefiniert. Dem steht halt das Problem entgegen, dass das Modell selbst mit den eigentlichen Definitionen bereits sehr gut passt, IMO ^^
Als Antwort auf stefan

@stk @johl @harkank Kann man wohl beides machen. Die Fragen sind fast die gleichen:

Wie gut sind LLMs darin, Semantik zu simulieren (wir?) bzw. Semantik zu betreiben (Michael?), wie gut können sie noch werden und warum (nicht)?

Was unterscheidet unseren Umgang mit Sprache von dem von LLMs, die kein Konzept von Semantik (wir?) bzw. kein Konzept von Bedeutung und Meinung, kein Verstehen (Michael?) besitzen?

Als Antwort auf Benjamin Braatz

gut gesagt:

ich fände es auch einfach ehrlich von "euerer" seite einmal einzugestehen, dass ihr keinen fucking schimmer habt, was ihr meint, wenn ihr "verstehen" oder "bedeuten" sagt. das ist nur platzhalter für "das da was in meinem hirn passiert, dass es macht, das alles sinn ergibt".

auch ich habe auch keine ahnung, was das ist, aber mein modell von semantik kommt weitgehend ohne diese mystischen begriffe aus.

Dieser Beitrag wurde bearbeitet. (5 Tage her)
Als Antwort auf Michael Seemann

@HeptaSean @johl @harkank na, das geb ich freimuetig zu :D ich kann nur gerade nicht nachvollziehen, wie dein Modell für ein tieferes Verständnis (ha!) sorgt. Verlagerst du den mystischen Prozess gerade nicht einfach in Sprache? Der ist dadurch ja nicht weg oder weniger mystisch, nur woanders.
Als Antwort auf stefan

@stk @HeptaSean @johl @harkank aber in der sprache ist semantik nicht mystisch, sondern statistisch abbildbar. wir können hier ganz konkret von konstellationen, integrationen und semantischen operationen und so weiter sprechen und damit konkrete strukturen meinen die mit anderen konkreten strukturen agieren, etc.
Als Antwort auf Michael Seemann

lass kognition draußen. wir reden miteinander, indem wir semantiken manipulieren und diese manipulation unsere latentspaces readjustiert, wann immer wir einander sprechake an den kopf werfen.

das, was "versteht" ist nicht dein gehirn, sondern die sprachliche struktur zwischen uns.

Dieser Beitrag wurde bearbeitet. (5 Tage her)
Als Antwort auf Michael Seemann

@stk @HeptaSean @johl @harkank Du verlagerst den mystischen Prozess des Verstehens in Sprache. (Und ich kann nachvollziehen, woher diese Aufladung von Sprache kommt, halte das aber für einen Fehler. Auch deswegen, weil wir uns nie nur Sprechakte an den Kopf werfen, sondern da immer Situationen und Kontexte und Körper dabei sind ...)
Als Antwort auf Till Westermayer

@_tillwe_ @stk @HeptaSean @johl @harkank nein, keine mystik. kontexte, sprechsituationen und körperlichkeit sind allesamt (auch) sematisch. im (post)strukturalistischen denken ist alles text.
Als Antwort auf Till Westermayer

@_tillwe_ @stk @HeptaSean @johl @harkank vielleicht. aber bisher noch keine anzeichen dafür gefunden, dass es falsch ist. du? vllt unvollständig, aber falsch nicht.
Als Antwort auf Michael Seemann

@stk @HeptaSean @johl @harkank Bin da Praxistheoretiker - Körper, Materialität (und Deutungen) schaffen Strukturierungen und Erwartungsbündel, in denen soziale Praxis überhaupt erst stattfinden kann (und dann wiederum strukturiert). Das alles auf Text zu reduzieren, führt schnell zu nur noch in sich selbst verständlichen Denkschleifen.
Als Antwort auf Michael Seemann

@_tillwe_ @stk @HeptaSean @johl @harkank überhaupt: alles ist text meint nicht, dass die welt aus symbolen besteht, sondern, dass wir keinen anderen, als einen symbolischen zugang zu ihr haben.
Als Antwort auf Michael Seemann

@stk @HeptaSean @johl @harkank Und das würde ich halt bezweifeln. Materialität spielt jenseits von symbolischer Wahrnehmung eine Rolle. Egal, ob alles, was Körper unterhalb von Sprache machen, oder ob ein durchgeschnittenes Kabel halt jede symbolische Verarbeitung unterbricht.
Als Antwort auf Till Westermayer

@_tillwe_ @HeptaSean @johl @harkank ich bin mir gerade auch nicht mehr sicher, ob wir mit der Diskussion irgendwann in eine Wiedererfindung des Chinesischen Zimmers abgebogen sind.
Als Antwort auf Michael Seemann

@_tillwe_ @stk @johl @harkank "Alles ist Text" klingt ein bisschen nach dem Wittgensteinschen Cop-Out "Alles ist Sprache". Funktioniert vielleicht, klammert aber – meinem momentanen Eindruck nach – gerade die interessanten Fragen – die „mystischen“ – einfach aus.
Als Antwort auf Michael Seemann

@_tillwe_ @HeptaSean @johl @harkank wie mehrfach gesagt: Das kann man sich so hin-definieren, die Frage ist aber, welcher Erkenntnisgewinn damit verbunden ist.

Man kann's ja auch andersherum aufziehen: Ein LLM ist ein Modell, das darauf optimiert wird, plausiblen Text auszugeben. Eine Annahme waere, dass Semantik einfach aus Text folgert. Die andere waere, dass die Modelloptimierung eine moeglichst passende Abbildung von Pragmatik zum Ergebnis hat.

Als Antwort auf stefan

@stk @_tillwe_ @HeptaSean @johl @harkank

ich habe einen riesen SHITLOAD an erkenntnissen, seit ich mit dem modell denke. ich ertrinke an erkenntnissen. dafür ist doch krasse links da.

Als Antwort auf Michael Seemann

@_tillwe_ @HeptaSean @johl @harkank ideal waere, wenn die Ueberzeugungen dann auch begruendbar und wahr sind, dann waer's auch ein Gewinn von Wissen :)

Und da sehe ich so ein wenig den Haken, dass das Modell, in dem der latent space auf die Reproduktion von Pragmatik optimiert, durchaus eine begruendbare Annahme ist, die zudem nicht mal eben bisherigen Konsens aus der Linguistik umwerfen muesste.

Als Antwort auf stefan

@stk @_tillwe_ @HeptaSean @johl @harkank ich gebe mir alle mühe zu begründen und llms sind me. auch der beweis, etc.

aber der eigentliche nutzen ist tatsächlich ein anderes sehen, sobald man diese perspektive eingeübt hat.

aber das geht nicht durch verstehen – scheiß auf verstehen – das geht durch einüben.

Als Antwort auf Michael Seemann

@_tillwe_ @HeptaSean @johl @harkank d.h. zusammengefasst gibt es nur Semantik, keine Pragmatik, und Semantik ist inhärent in Sprache vorhanden, ohne dass es einen wie auch immer gearteten Sprechakt benötigt, und das geht dann ohne die Notwendigkeit eines Kognitionsprozesses quasi direkt, äh, irgendwohin beim Menschen?
Als Antwort auf stefan

@stk @_tillwe_ @HeptaSean @johl @harkank nein, im gegenteil. wo nimmst du das her, sowas würde ich NIE sagen!

es gibt den sprechakt (parole) und die semantik (langue)

der sprechakt ist aber NICHT die sprechsituation (semantik), der sprechakt ist die materielle äußerung: der schall, der text, etc und er manipuliert die semantik. sonst wäre sie ja statisch, wie bei der llm.

Als Antwort auf stefan

Vielleicht so ausgedrückt, wenn ich Michael richtig verstehe. LLMs müssten dann mit so etwas wie Maxwell-Gleichungen rechnen können, um dem näher zu kommen, was er meint. Das findet ja überhaupt nicht statt.
Dieser Beitrag wurde bearbeitet. (5 Tage her)
Als Antwort auf Michael Seemann

@stk @_tillwe_ @HeptaSean @johl @harkank Maxwell-Gleichungen werden in der Elektrodynamik eingesetzt, bzw. sie sind zwingend erfolderlich, um elektromagnetische Felder zu berechnen/beschreiben, die sich zwischen Plus/Minus auftun, oder um einen elektrischen Strom, etc. Sie sind notwenig um Felder zu beschreiben und in dem Bild sehe ich das, was Du mit Semantik meinst. Quasi das Netz desses, in welches dann Menschen mit ihren Sprechakten eintauchen oder welches sich auftut..
Als Antwort auf Weltzeitgeist

@wackJackle @stk @_tillwe_ @HeptaSean @johl @harkank insofern, dass ich sprache als navigationsraum verstehe, der die fließbewegungen der sprechakte leitet, wie das feld die elektronen?
Als Antwort auf Michael Seemann

@stk @_tillwe_ @HeptaSean @johl @harkank Ganz korrekt sind es dann auch nicht die Elektronen sondern die Kräfte im elektromagnetischen Feld, welche auf unterschiedlich Bahnen im Feld von Plus zu Minus fließen, aber für das Bild ist das nicht sooo entscheidend. Musste aber noch von mir gesagt werden. 🙃
Als Antwort auf Weltzeitgeist

@wackJackle @_tillwe_ @HeptaSean @johl @harkank die Felder sind aber in dem Bild nicht von Individualitaet und Praegung abhaengig, sondern z.B. ein Dipol mit Laenge l und Wellenwiderstand Z verhaelt sich immer gleich, oder?
Als Antwort auf stefan

@stk @_tillwe_ @HeptaSean @johl @harkank Also mir geht es erstmal darum, die mathematische Beschreibung von 'Feldern' einzuführen, aber das ließe sich leicht erweitern, indem man dieses annimmt und es als vorhanden setzt. Jeder Mensch hätte dann einen eigenen Elektromotor in sich, der ganz individuell und je nach Prägung laufen würde und automatisch dadurch, dass Feld selbst verändert, es aber auch auf ihn einwirkt.. und alles wäre stets dynamisch.. Feld und Sprecher.
Als Antwort auf stefan

Konkret auf Deine Frage: Da wäre das so, ja. (sofern äußere Einflüße wie Temperatur konstant bleiben..)
Dieser Beitrag wurde bearbeitet. (5 Tage her)
Als Antwort auf stefan

@stk @_tillwe_ @HeptaSean @johl @harkank nein, ist ist nicht wichtig, pragmatik auszuklammern, wo hab ich das gesagt? pragmatik als begriff ist egal. es braucht ihn nicht. das, was er aussagen will, ist in dem sematikbegriff inkludiert.

wenn du etwas ausklammern willst, nimm „verstehen“ und andere kognitive metaphern. die lenken nur ab.

Als Antwort auf Michael Seemann

@_tillwe_ @HeptaSean @johl @harkank d.h. wenn z.B. eine In-Group Begriffe oder Catchphrases hat, die nur innerhalb der Gruppe eine gewisse Semantik uebertragen, ist das halt Semantik und fertig, und dass eine Pragmatik den Sprechakt verkuerzen kann, spielt keine Rolle sondern gehoert in die Semantiktuete?
Als Antwort auf Michael Seemann

@_tillwe_ @HeptaSean @johl @harkank z.B. gemeinsamen vorherigen Kontext annehmend: „Hat Michi dort jetzt angefangen?“ – „Nee, er hasst Katzen“, vs. „Hat unser gemeinsamer Bekannter Michael jetzt angefangen, im Tierheim zu arbeiten?“ – „Nein, er muesste dort regelmaessig mit Katzen interagieren, aber wie dir bekannt ist, hasst er Katzen, deswegen war das fuer ihn nicht akzeptabel“.

Oder die Interpretation von „Darf man den Jaguar anfassen“, abhaengig vom Setting.

Als Antwort auf stefan

@_tillwe_ @HeptaSean @johl @harkank so einen _sozialen_ Kontext kann ein LLM natuerlich nicht herstellen. Aber bei Varianten rund um Jaguar gibt ein genuegend grosser Trainingskorpus je nach Fragestellung hinreichend viel Pragmatik-Latent-Space mit, um passend auf dem Vervollstaendigungspfad einzusteigen, dass die Antwort fuer ein menschliches (kognitiv verarbeitendes) Interaktions-Gegenueber passende Antworten geben kann.
Als Antwort auf Michael Seemann

@stk @johl @harkank Das sei Dir gerne zugegeben. „Keinen fucking Schimmer“ ist vielleicht etwas übertrieben, aber, ja, ist schwierig, exakt zu fassen.

Funktioniert dafür im Alltag erstaunlich gut, sich auf die Bedeutung von Begriffen zu einigen. Und ist eine der Leerstellen, die bei LLMs gelegentlich auffallen, wenn sie Dinge frei erfinden.

Als Antwort auf Michael Seemann

@harkank @johl hier noch: Das war nicht mein Argument. Mein Argument war, dass es Ansichten gibt, dass Semantik erst beim Verstehen entsteht. Nach der Denkweise produziert ein LLM auch nur Buchstabensuppe, und erst durch den Verstehens-Akt wird was draus. Da ging es mir nur darum, aufzuzeigen, dass man sich sowas natürlich konstruieren kann, aber es eventuell nicht so wirklich praktisch nützlich ist für die Erkenntnis ;)
Als Antwort auf Michael Seemann

@johl @danielaKay @yala es geht mir ja eher um die damit verbundenen Zuschreibungen, die abseits des Forschungsgebiets gerne zu religiöser Mystifizierung führen. Man kann sich damit abfinden, dass das ähnlich produktiv ist wie die Frage, ob ein Schiff wirklich „schwimmt“. Wenn es dann aber dazu führt, dass der Wissensbegriff verschwimmt, hat das halt Auswirkungen in der Welt, die wir erleben.
Als Antwort auf Michael Seemann

@johl @danielaKay @yala dazu noch: Das mit dem Werkzeug hat Douglas Engelbart schon 1962 gesagt, nachdem er den Begriff doof fand ^^ dougengelbart.org/pubs/augment…
Als Antwort auf Michael Seemann

@stk @danielaKay @yala Da dürfte Roland Barthes als Begründer der poststrukturalistischen Semiotik den Begriff anders verwenden als du.
Als Antwort auf Jens Ohlig

@johl @stk @danielaKay @yala barthes ist ein grenzfall, eher.

und den begriff "semiotik" verwende ich eigentlich nicht, den habt ihr aufgebracht. ich habe nur gesagt, was ich darunter verstehe.

Als Antwort auf Michael Seemann

@johl @yala und mein Punkt ist, dass mMn *nur* aus dem Kontext keine Bedeutung entstehen kann.

Sorry, muss jetzt aufräumen. Sonst geniere ich mich gleich vor meinem Aufräum-Body-Double :-)

Als Antwort auf Michael Seemann

@yala @johl ich glaube, mein Problem ist, dass *Du* denkst, meine Idee von Fortbewegung sei Autofahren und dass wir deswegen über Straßen reden müssen, und wie man sie fortschrittlich nutzen kann.

Ich hingegen habe im Studium vom Beamen geträumt und kann jetzt nicht glauben, dass sie Asphalt in der Landschaft verlegen und das als "Künstliches Beamen" verkaufen.

Als Antwort auf Michael Seemann

Das I in KI fand ich schon immer missverständlich oder euphimistisch. Sicherlich ist die Synthese ein Aspekt von Intelligenz, aber eben nur einer. Und bisher sehe ich bei KI nur Synthese. Nicht mehr.

axebos hat dies geteilt.

Als Antwort auf Michael Seemann

Das ist übrigens die pragmatistische Position, zB von Dewey. Der leider zu oft fälschlicherweiseweise im Sinne der von dir zu Recht kritisierten suvjektivistischen Fokussierung auf Agents gelesen wird. Aber auf jeden Fall kein "world model". Besonders spannend in dieser Hinsicht auch Peirce, dessen Semiotik konkret medial ist.

axebos hat dies geteilt.

Als Antwort auf Jörg Volbers

@apublicimage pierce kenne ich auch und sein modell war mir immer sehr sympathisch, auch wenn ich nicht ganz mitgehe.

axebos hat dies geteilt.

Als Antwort auf Michael Seemann

Ja v.a. seine Systematik ist ermüdend und weird. Die Grundidee jedoch ist klasse: logik als eine materielle Semiotik, also nicht "im Kopf", sondern in den Zeichen. Das übernimmt Dewey und artikuliert dass dann weniger metaphysisch, d.h. vor allem soziologisch und biologisch.

axebos hat dies geteilt.

Als Antwort auf Michael Seemann

+1, und das in vielfacher Hinsicht:
1. die, die es entwickeln, reden die Probleme klein;
2. die, die es entwickeln, versprechen zu viel;
3. die, die es entwickeln, halten alle anderen für dumm genug, 1. und 2. zu glauben;
4. bei denen, die es fördern überlagert die Gewinnsucht die Kompetenz, obiges zu prüfen;
5. bei denen, die es nutzen genügt das Niveau der Produkte um sie als Erleichterung zu sehen;
6. jene, die Ahnung haben und so die Finger davonlassen sind zu wenig.

Prost!

Dieser Beitrag wurde bearbeitet. (5 Tage her)