als entropisches phänomen. wir können uns dieser hypothese mindestens aus zwei richtungen nähern, der informations-theoretischen und der physikalischen, als maß der unordnung, zb. wir versuchen nun folgende gestalt zu übertragen : ein zeichen, symbol η mit einem bestimmten informationsgehalt ϑ und ϑ‘ als repräsentativer informationsgehalt, erreicht nach endlicher zeit τ eine gleichverteilung in einer endlichen anzahl informationskanälen ν mit bestimmten eigenschaften Φ. der informationsgehalt ϑ‘ eines zeichens, symbols η, wird bestimmt durch das bezeichnete, semantischer kontext, und der auftrittswahrscheinlichkeit, neuigkeitswert, der shannon entropie ϑ. dieser nexus grundiert das thema. verstehen wir abstraktion in erster näherung informationstechnisch als datenkompression, in der individuellen sprachlichen begriffsbildung**, und die codierung, symbolbildung als eintritt in einen kontext.
intuitiv skaliert der abstraktionsgrad mit dem grad der datenkompression. sinnlich-empirische gegenstände der abstraktion sind ihrem informationsgehalt nach leicht normierbar, metrisch klassifizierbar. nicht gegenständliche objekte aus bereits abstrakten mengen, geometrische elemente zb, uvam, entziehen sich einer einfachen, diesbezüglichen betrachtung, mangels diskreter eigenschaften. nehmen wir eine strukturalistische perspektive ein, können wir eventuell über co-okkurenz betrachtungen (graphen), ein geeignetes maß finden.
*A. Reckwitz, Die Gesellschaft der Singularitäten. Zum Strukturwandel der Moderne. Suhrkamp, Berlin 2017 **G. Frege, Über Sinn und Bedeutung. Zeitschrift für Philosophie und philosophische Kritik, 1892, aber auch E. Cassirer, Philosophie der symbolischen Formen, Meiner, 2010, Band 1, Die Sprache.


