Kategorien
Alle Beiträge

Das Problem der Skalierbarkeit im Anarchismus anhand einer Fallstudie für kybernetischen Kommunismus

Deutsche Übersetzung eines C4SS-Artikels von Aurora Apolito, übersetzt von Chaosprinzessin

Artikel als PDF \ Artikel als ePub


DAS PROBLEM DER SKALIERBARKEIT IM ANARCHISMUS ANHAND EINER FALLSTUDIE FÜR KYBERNETISCHEN KOMMUNISMUS

AURORA APOLITO


  1. ANARCHISMUS UND DAS SKALIERUNGSPROBLEM

Das Problem der Größenordnung ist vielleicht die grundlegendste Problematik des Anarchismus. Wir alle wissen aus direkter Erfahrung, dass Anarchismus auf lokaler Ebene gut funktioniert. Die meisten Menschen, die in der anarchistischen Bewegung aktiv waren, haben sich auch an zumindest einigen Initiativen wie Food-Not-Bombs, Infoshops, kleinen Verlagen, anarchistischen Buchmessen, gegenseitigen Hilfsinitiativen, der Antifa, Arbeitergenossenschaften, Street Medicine, Hacker- und Maker Spaces, usw. beteiligt. Die anarchistische Bewegung hat riesige historische Erfahrung gesammelt, wie solche lokalen Gemeinschaftsinitiativen durchgeführt werden können. Es besteht wenig Zweifel daran, dass der Anarchismus in dem arbeitet, was ich als „den kleinen Maßstab“ bezeichnen möchte.

Historisch gesehen war eine der häufigsten Formen der Kritik am Anarchismus, dass er keine überzeugende Theorie darüber liefert, wie eine dezentralisierte, nicht-hierarchische

Form der Organisation so skaliert werden kann, dass sie „im großen Maßstab“ effizient arbeitet. Diese Einwände wurden oft von sozialistischen und kommunistischen Aktivisten geäußert, die Formen der Planung befürworten, die sich um eine Parteistruktur und/oder eine staatliche Organisation drehen. Bekanntlich kommentierte Leon Trotzky in seiner Autobiografie, wie seine frühe Begeisterung für den Anarchismus abkühlte, als seine anarchistischen Genossen nicht in der Lage waren, einen guten Plan für den Betrieb des Eisenbahnsystems vorzulegen. Trotzkys Schreiben war unaufrichtig, aber die Frage ist legitim. Wie geht der Anarchismus mit großräumigen Strukturen um? Gibt es eine gute Skalierungsstrategie, die vom Kleinen zum Großen interpoliert? Obwohl man sich sicherlich mehrere gute Antworten auf das spezifische Eisenbahnproblem vorstellen kann, ist das allgemeinere Problem der Größenordnung höchst nicht-trivial: Es ist bekannt, dass viele physikalische Systeme nicht maßstabsfrei sind und außerhalb eines typischen Anwendungsbereichs zusammenbrechen. Ist Anarchismus ein solches System, dazu bestimmt, nur in der Größenordnung kleiner lokaler Gemeinschaften zu funktionieren?

Es gibt einen Teil der anarchistischen Bewegung, der sich auf solche „lokalen“ Positionen zurückgezogen hat und dafür plädierte, das Größenproblem ganz aufzugeben und sich nur auf Aktionen und Organisation auf der Ebene kleiner Gemeinschaften zu konzentrieren. Ich behaupte, dass diese Position unvereinbar mit den allgemeinen Idealen des Anarchismus ist, dessen oberstes Ziel die Befreiung der gesamten Menschheit (und aller fühlenden Wesen, biologisch oder mechanisch) von Unterdrückung und hierarchischen Machtstrukturen ist. Um solche Ziele zu erreichen, muss moderner Anarchismus sich mit einer Welt von hoher Komplexität und mehreren Schichten von Strukturen in großem Maßstab beschäftigen. Der Rückzug in die Komfortzone kleiner homogener lokaler Gemeinschaften widerspricht der gesamten Geschichte des Anarchismus, die von großen Bestrebungen und visionären revolutionären Ideen geprägt ist. Es gibt andere, sehr unterschiedliche, Tendenzen innerhalb der anarchistischen Bewegung, wie der „Anarchokapitalismus“, der nicht zurückschreckt, sich dem Problem der Größenordnung zu stellen, sondern im Wesentlichen dafür plädiert, es zu lösen, indem er sich den Marktmechanismus vom Kapitalismus entleiht und diesen irgendwie “liberalisieren” möchte, um sozio-ökonomischen Zielen und einer gleichberechtigteren Gesellschaft zu dienen. Ich finde diesen Ansatz auch unsympathisch. Ich glaube weder, dass Märkte vom Kapitalismus „befreit“ werden können, noch, dass sie überhaupt etwas Gutes tun können, unabhängig von ihrem freiheitlichen Status. Im Wesentlichen, weil ich der Ansicht bin, dass sich der Marktmechanismus, in dem Versuch, den Profit zu maximieren, auf der steilsten Talfahrt zu einem Kosten/Energie-Minimum befindet, was unweigerlich die am wenigsten wertvollen Möglichkeiten wählt und entlang des Prozesses gleichzeitig alles auslöscht, was irgendeinen Wert hat (aber nicht gewinnorientiert ist). Nennen Sie es meine kommunistische Voreingenommenheit.

Für den Zweck dieses kurzen Essays möchte ich einige Aspekte des Skalierungsproblems unter vereinfachten Annahmen betrachten, die ich zuversichtlich sehe, wenn ich mir die Struktur einer anarchistischen Gesellschaft (oder zumindest einer, in der ich mich wohlfühlen würde) vorstelle. Ich werde also zunächst davon ausgehen, dass das, was in der “kleinen Größenordnung” passiert in der Form eines Netzwerks von Gemeinden, Genossenschaften und Kollektiven, die in anarcho-kommunistischen Formen der Organisation funktionieren, etabliert ist, und ich werde die Frage erwägen, wie großräumige Strukturen über dieses Netzwerk angewendet werden können.

Was ich hier unter „großräumigen Strukturen“ verstehe, kann in erster Linie als „großräumige Verteilung der Dienstleistungen“ beschrieben werden. Dienstleistungen umfassen alle offensichtlichen Bedürfnisse wie Transport (die anarchistische Eisenbahn!), Gesundheitsversorgung, Erzeugung und Verteilung von Wissen (Vernetzung, Lernen, Zirkulation und Zugänglichkeit von Informationen), die Lieferkette für Lebensmittel und Materialien. All dies kann in der Regel nicht strikt innerhalb der Ebene einer lokalen Gemeinschaft gehandhabt werden, unabhängig davon, wie gut geplant und effizient lokale Nahrungsmittelproduktion oder öffentliche Nahverkehrsmittel bereitgestellt werden können. Dienstleistungen sind nicht kosteneffizient, gerade weil es sich um Dienstleistungen handelt. Ihr Vorteil ist enorm, manifestiert sich aber in indirekten Formen, die nicht zu Profit aus der Ausführung der Dienstleistung selbst führen. Deshalb ist es unmöglich, im Kapitalismus gute Dienstleistungen zu erwarten: Der Transport mit dem Auto ist ineffizient und katastrophal für die Umwelt, Wissen wird hinter Paywalls gefangen gehalten, die Gesundheitsversorgung ist unzugänglich, Produktion und Angebot konzentrieren sich auf schnellen Verbrauch von Inhalten minderer Qualität, usw.  Auf der anderen Seite hat ein breites und uneinheitliches Spektrum politischer Positionen innerhalb des sozialistischen Spektrums, das von den Sozialdemokraten bis zum autoritären Stalinismus reicht, traditionell den Staat mit der Aufgabe betraut, sich um die Verteilung von Dienstleistungen in großem Maßstab zu kümmern. Diese Verschmelzung von Staat und Diensten hat den gefährlichen Effekt, eine nützliche Funktion (Bereitstellung eines zuverlässigen Zugangs zu Dienstleistungen) mit den unangenehmsten und autoritärsten Aspekten des Staates zu koppeln: Ein großer Teil der Produktion wird in den Dienst des Militärs übertragen, die Durchsetzung wird der gewaltsamen Aktion der Polizei übertragen, Ineffizienzen gibt es im Überfluss und Zentralisierung macht die Planung oft unzuverlässig. Ich werde einige erprobte Alternativen vorstellen, die sich historisch innerhalb der sozialistisch/kommunistischen Perspektive entwickelt haben und die auf Dezentralisierung und Entkopplung von Dienstleistungen und Staatsmacht zielen.


  1. Kommunismus und das Skalierungsproblem

        Eine erste Beobachtung, die ich machen möchte, bevor ich das Größenproblem weiter erörtere, ist, dass man den Spieß beim „Skalierungseinwand“, der historisch als ein Problem des Anarchismus behandelt wird, leicht umdrehen und die gleiche Skalierungsfrage als ein Problem des Kommunismus formulieren kann.

Unter der Annahme, dass auf lokaler Ebene ein kommunistisches Wirtschaftssystem in Form von arbeitnehmereigenen Genossenschaften und Kommunen effizient umgesetzt wird, wie lässt sich dort die gesamte Lieferkette und die Dienstleistungen in großem Maßstab einbeziehen? Historisch gesehen hat der Kommunismus in der Regel auf zentralisierte Planwirtschaften zurückgegriffen, was oft zu katastrophalen Misswirtschaften, gepaart mit repressivem Autoritarismus, führte. Es gibt jedoch einige nützliche und interessante Lehren aus den vielen vergangenen erfolglosen Versuchen der Dezentralisierung der kommunistischen wirtschaftlichen Planung und die Schwierigkeiten, auf die diese Versuche stießen.

Während der Sowjetzeit gab es vor allem zwei bedeutende Versuche, das Problem der Größenordnung in der Planwirtschaft mit rechnerischen Methoden zu lösen. Der eine war Leonid Kantorowitschs lineare Programmierung [18], die nach einer Anfangsphase starker Obstruktion und Unterdrückung durch die Behörden während der Zeit Stalins begann, gegen Ende der 1950er-Jahre anerkannt zu werden, [34]. Lineare Programmierungstechniken waren später in die sowjetische Wirtschaftsplanung übernommen worden, beginnend mit der militärischen Produktionskette in den 1960er-Jahren. Während Kantorowitschs Optimierungsmethoden explizit auf eine effiziente Ressourcenallokation in einer kommunistischen Wirtschaft ausgerichtet waren, war der extreme Widerstand, auf den sie in stalinistischen Zeiten stießen, weitgehend auf die vermeintlichen Ähnlichkeiten zwischen Kantorowitschs „Bewertungen“ und einem Marktpreissystem zurückzuführen. Während dies nicht das Hauptthema ist, auf welches ich mich in diesem Aufsatz fokussieren möchte, möchte ich betonen, dass gegen die Entlehnung von Marktmechanismen des Kapitalismus zu sein, nicht impliziert (und nicht implizieren sollte), die Verwendung mathematischer Optimierungsmethoden als Teil einer kommunistischen Ökonomie komplett abzulehnen.

Selbst in einem Szenario der Überflusswirtschaft, mit einer reichlichen Verfügbarkeit erneuerbarer Energien, würden bestimmte Materialien knapp bleiben, einfach aufgrund der unterschiedlichen relativen Verteilung der chemischen Elemente im Universum. Nachhaltigkeit und Minimierung der Auswirkungen auf die Umwelt würden wertvolle Ziele bleiben. Solche Minimierungsprobleme sind in der Tat durch Techniken wie lineare Programmierung gut gehandhabt und leicht zu vereinbaren. Es sind Maximierungsziele, die den schwierigen Teil der Frage in unserem Skalierungsproblem darstellen.

Die Frage ist nicht, ob Optimierungsformen an sich hilfreich sind, sondern vielmehr was optimiert wird. Das Hauptproblem, auf das ich noch zurückkommen werde, wenn es um die Verteilung von Dienstleistungen im großen Maßstab einer kommunistischen Ökonomie geht, liegt in der notwendigen wesentlich höheren Informationskomplexität für den Entwurf eines Systems aus Bewertungen und Beschränkungen, welches nicht den vereinfachten kapitalistischen Profitbegriff reflektiert, sondern Vorteile erfasst, die nur in einer wesentlich größeren raumzeitlichen Größenordnung und bei wesentlich tieferen Komplexitätsebenen stattfinden können. Kantorowitschs linearer Programmieransatz wird prinzipiell auch unter einem Größenproblem leiden, da die Bewertungen nicht skalenunabhängig, und die Größenordnung der Komplexität, die erforderlich ist, um ein gutes System von Bewertungen und Einschränkungen zu identifizieren, ein entscheidender Teil des Problems ist. Die Abhängigkeit der Märkte von der Gewinnoptimierung umgeht das Problem, indem sie die Lösung killt.

        Der andere historische Versuch, rechnergestützte Methoden einzuführen, um das Größenproblem in einer kommunistischen Wirtschaft zu adressieren, ist im Allgemeinen weniger bekannt, aber eher für den Zweck unserer Diskussion interessant: Victor Glushkows kybernetisches Projekt eines dezentralisierten Netzwerks von Feedback- und Berechnungsmechanismen, basierend auf einer rudimentären Form der künstlichen Intelligenz. In diesem Plan hätte dieses völlig dezentralisierte, riesige Computernetzwerk den Staat schließlich vollständig aus den Aufgaben der Wirtschaftsplanung und der Verteilung von Dienstleistungen entfernt. Unnötig zu erwähnen, dass das Projekt von der Sowjetregierung vehement abgelehnt wurde, nachdem eine anfängliche Phase milder Begeisterung sich schnell verflüchtigte. Ein detaillierter Bericht über die Geschichte dieses Projekts wird in [28] vorgestellt, während allgemeinere Hintergründe über die Rolle der Kybernetik in der Sowjetunion in [13] eingehend erörtert werden.


2.1. Geschichte des kybernetischen Kommunismus. Während der Frühzeit der russischen Revolution, wurde ein bedeutender Vorläufer der Kybernetik in der Philosophie der „Tektologie“ des transhumanistischen bolschewistischen Führers Aleksandr Bogdanow vorgeschlagen, [14], [21]. Als jedoch Norbert Wiener 1948 die neue Wissenschaft der Kybernetik einführte, [35], wurde sie, ähnlich wie mehrere andere Bereiche der zeitgenössischen Wissenschaft, vom Stalin-Regime angegriffen und verurteilt, unter Ausschluss dessen, was unmittelbar notwendig für die Entwicklung von Atomwaffen wurde, [16], [29]. Trotz des offiziellen Verbots, begann das Interesse an der Kybernetik unter den sowjetischen Wissenschaftlern zu wachsen, vor allem dank der privaten Heimseminare des Mathematikers Aleksei Lyapunov, [13]. Die offizielle Rehabilitation der Kybernetik begann erst nach 1953, dem Todesjahr Stalins, mit einem berühmten Papier von Anatolij Kitow, Alexej Ljapunow und Sergej Sobolew (alle Schwergewichte des sowjetischen wissenschaftlichen Establishments), [19]. Bis 1967 zählte die Kybernetik in der Sowjetunion fünfhundert aktive Forschungsinstitute und Zehntausende Forscher, [13], [28].

        Wirtschaftsreformen wurden Mitte der 50er-Jahre zu einer dringenden Notwendigkeit, nachdem Stalins Herrschaft das Land in einem Scherbenhaufen hinterlassen hatte, die Lieferkette und der Agrarsektor sich dem Zusammenbruch näherten und die ernsthafte Gefahr einer weiteren großen Hungersnot drohte. Inmitten einer sehr schnellen Ausweitung des technisch-wissenschaftlichen Sektors, ausgehend von den frühen Erfolgen des sowjetischen Raumfahrtprogramms bis hin zu den ersten großen Entwicklungen von Computersystemen und Automatisierung, wurden mehrere konkurrierende Vorschläge für Wirtschaftsreformen vorgelegt, die die Idee einer „rechnerischen Lösung“ für die schweren Misswirtschaften der Planwirtschaft avancierten.

        In diesem Rahmen entwarf der Mathematiker Victor Glushkov einen grandiosen Plan, die kommunistische Wirtschaft der zentralisierten Planung der Sowjetregierung zu entreißen und ihre Rolle vollständig durch ein dezentralisiertes autonomes Computernetzwerk zu ersetzen. Dieses massive OGAS-Projekt (zu dt.: Das allgemeine automatische System zur Sammlung und Verarbeitung von Informationen im Zusammenhang mit der Buchführung, der Planung und der Steuerung für die nationale Wirtschaft., Anm. d. Übers.) wurde 1962 direkt an Chruschtschow übergeben und in einer anfänglichen Phase 1963 genehmigt. Der ursprüngliche Entwurf dieses dezentralisierten Ferncomputersystems war arbeitnehmerorientiert, anti-bürokratisch und gleichgeordnet, [28].

        In dieser kybernetischen Vision ermöglichte es McCullochs Konzept der Heterarchie [26], ein Verständnis für komplexe Systeme außerhalb der restriktiven Logik einer Dichotomie zwischen Hierarchien und flachen Märkten zu entwickeln und stattdessen Selbstorganisation, Feedbackschleifen und komplexe Netzwerke hervorzuheben, [28].

        Der ursprüngliche Plan des kybernetischen Ansatzes war die Einführung eines dezentralisierten Rechensystems, das in der Lage sein sollte, Rückmeldungen in Echtzeit zu verarbeiten und die Simulation komplexer Dynamik zu bewältigen. Im Hinblick auf die Bereitstellung eines skalierbaren rechnerischen Modells, konzentrierten sie sich vor allem auf Kantorowitschs lineare Programmierung, das damals vielversprechendste mathematische Werkzeug. Wie bereits erwähnt, ist die Skalierbarkeit von Kantorowitschs Wertungen subtil, und wir werden einen möglichen modernen Ansatz zur Skalierbarkeit im nächsten Abschnitt dieses Papiers diskutieren. Der wichtigste Aspekt des Vorhabens war die Hauptidee eines kybernetischen Computernetzwerks und seine Rolle bei der Implementierung eines dezentralisierten autonomen Berechnungsmechanismus für ein kommunistisches Wirtschaftssystem, das keine zentralisierte Planung erfordern würde.

        Es wurde schnell klar, dass die voraussichtlichen Kosten für eine Umsetzung dieses Projekts auf dem gesamten Gebiet der Sowjetunion enorm waren, aber es wurde noch offensichtlicher, dass das Ziel, die zentralisierte Planung und Kontrolle der sowjetischen Regierung durch ein dezentralisiertes, nicht-hierarchisches, autonomes Rechensystem zu ersetzen, eine unmittelbare Bedrohung für das Establishment darstellte.

        Etwa zur Zeit des Übergangs zwischen der Chruschtschow- und der Breschnew-Führung (1964-1965) entschied sich die Sowjetregierung stattdessen für die viel weniger bedrohlichen Vorschläge der Kosygin-Libermanschen Wirtschaftsreformen. Diese basierten auf Evsei Libermans Wirtschaftsplan [22], [24], der sich auf die Einführung von Gewinnmaßnahmen und einen Marktmechanismus konzentrierte. Somit tötete die einfachere und weniger bedrohliche gewinnorientierte Dynamik der Märkte effektiv den viel interessanteren und möglicherweise revolutionären kybernetischen Plan für ein großes dezentralisiertes autonomes System, das nicht auf dem Profit-Mechanismus basierte. Die Kosygin-Liberman-Reform selbst wurde dann schließlich 1970 aufgegeben, [28].

        Der kybernetische Kommunismus hat sich in der Sowjetunion nicht erholt, die Kybernetik selbst erfreute sich in der sowjetischen Kultur in den 70er-Jahren jedoch weiterhin großer Beliebtheit. Wie dem auch sei, ein weiteres Experiment des kybernetischen Kommunismus entwickelte sich unabhängig in Allendes Chile. Es stand Anfang der 1970er-Jahre kurz vor der Fertigstellung, blieb aber unvollendet, als die Regierung Allende durch den faschistischen Pinochet-Putsch gewaltsam gestürzt wurde, [27].

        Anders als die sowjetische Regierung, die das OGAS-Projekt schnell ausbremste, sobald sie es als Bedrohung ihrer autoritären Kontrolle wahrnahm, war Allende wirklich offen für die Idee eines dezentralisierten nicht-autoritären Kommunismus, sodass er die Idee einer kybernetischen Lösung begeistert aufnahm. 1971 kontaktierte die Regierung Allende den sozialistischen britischen Kybernetiker Stafford Beer und bat um eine Konsultation,

wie man ein verteiltes Entscheidungsunterstützungssystem für die Verwaltung der nationalen Wirtschaft implementieren könnte, das die Autonomie der Arbeitnehmer respektieren würde und die Durchsetzung einer Kontrollkette von oben nach unten verhindern sollte.

        Beer nahm die Aufgabe mit Begeisterung an und wurde zum Hauptarchitekt des Projekts Cybersyn, bestehend aus einem breiten Netz von Daten sammelnden Telexgeräten, einer statistischen Modellierungssoftware, einer Wirtschaftssimulationssoftware und einem Kontrollraum, in dem menschliche Beobachter den Datenfluss und die Ergebnisse der Modellierung überblicken und auf mögliche Notfälle reagieren konnten. Das Hauptziel von Beer war die Entwicklung selbstregulierender Fabriken und die Entscheidungsgewalt vollständig diesen den Arbeitnehmern gehörenden Strukturen zu übertragen, in einer Weise, die (durch das Computersystem) mit der größeren nationalen Wirtschaft kompatibel wäre. Während Cybersyn viel näher an die volle Funktionsfähigkeit kam als sein sowjetisches Gegenstück, löschte das plötzliche tragische Ende von Allende und der Abstieg Chiles in die Dunkelheit der faschistischen Diktatur vollständig die Möglichkeit, es zu verwirklichen. Als die Militärs den Präsidentenpalast übernahmen, zerstörten sie den Cybersyn-Kontrollraum und demontierten das System vollständig, [27].


2.2. Kommunismus braucht Komplexität. Bevor ich mit der Beschreibung eines konkreten Vorschlags für das Problem der Skalierbarkeit fortfahre, möchte ich vorbringen, dass die Skalierung eines Organisations- und Produktionsmodells auf Grundlage anarcho-kommunistischer Prinzipien nur bei Vorhandensein ausreichender Kapazitäten für Informationskomplexität möglich ist.

        Als Hintergrund werde ich auf eine neuere Studie [31] verweisen, in der historische Daten (aus der Seshat Global History Databank) eines breiten Spektrums unterschiedlicher Politikbereiche, die von Gesellschaften auf Dorfebene bis hin zu Imperien reichen, analysiert werden. Die Methode der Hauptkomponentenanalyse (HKA) wird auf die Daten angewendet, die auf einen zweidimensionalen Raum abgebildet werden können, der durch die ersten beiden Hauptkomponenten gegeben ist und den größten Teil der Variation in den Daten erfasst. Wenn die Daten auf diese Weise visualisiert werden, folgen sie einem stark strukturierten Muster. Betrachtet man die Variation in der zweiten Hauptkomponente für steigende Werte der Ersten, zeigen die historischen Politiken eine erste, sehr konzentrierte Phase, die als Größenwachstum mit relativ geringem Wachstum der Informationskapazität interpretiert werden kann. Darauf folgt eine Schwelle (welche die Autoren als „Skalenschwelle“ bezeichnen), nach der das Muster bei Politiken, die zwar an Umfang, aber kaum an informatorischer Komplexität zunehmen, beginnt, erheblich von denen abzuweichen, die ein bedeutenderes Wachstum in informatorischer Kapazität erreichen. Eine zweite Schwelle (die „Informationsschwelle“) macht weitere Größenzunahme für jene Politiken möglich, die ein ausreichend hohes Niveau der Informationsverarbeitungskapazität erreicht haben. Dementsprechend gibt es in diesem zweidimensionalen Parametrisierungsraum einen Bereich, in dem die Politiken breiter gestreut sind, was auf verschiedene mögliche Entwicklungsmuster in der Skala/Informationslandschaft hinweist. Nachdem die zweite Schwelle überschritten ist, wird das Skalenwachstum wieder vorherrschend und die Politiken tendieren dazu, sich mit weniger diversifizierten Merkmalen erneut in diesem Parametrisierungsraum zu gruppieren. Der in dieser Studie verwendete Datensatz ist auf die Analyse prämoderner Gesellschaften zugeschnitten, daher kann das Verhalten, wie die Autoren betonen, nach Überschreiten der Informationsschwelle artifiziell homogener aussehen, was in der Sättigung diverser Variablen begründet liegt, sobald Daten moderner Gesellschaften darauf treffen.

Sozialismus und Kommunismus sind von Natur aus moderne Phänomene, die industrielle und informationelle Gesellschaften benötigen (Primitivisten be damned). Nichtsdestotrotz kann man immer noch einige nützliche Beobachtungen aus der in [31] durchgeführten Analyse ableiten. Insbesondere neigt die weitere gesellschaftliche Entwicklung, wenn die Größenordnung deutlich zunimmt, aber durch relativ geringe Informationsverarbeitungskapazitäten eingeschränkt wird dazu, sich in staatlich-autoritären Formen zu organisieren, während in kleineren Politiken eine Vielzahl unterschiedlicher Organisationsformen auftritt. In dieser Phase nimmt die Vermögensungleichheit in der Regel rasch zu. Erst nachdem genügend Informationskomplexität erreicht ist, wird eine Vielzahl von unterschiedlichen Entwicklungsformen wieder möglich. Abgesehen von der Frage nach der Zuverlässigkeit der Seshat Daten für moderne Gesellschaften, kann man die erneute Betonung des Größenwachstums (statt des anhaltenden Wachstums der  Informationskomplexität) nach dem Übergang zur zweiten Phase als einen Aspekt der modernen kapitalistischen Gesellschaften interpretieren. Dies würde nahelegen, dass man einen weiteren Phasenübergang zu einem sehr signifikanten Zuwachs der Fähigkeit zur Informationsverwaltung erwarten kann, die notwendig ist, damit neue nicht kapitalistische Organisationsformen auf dem gegenwärtigen Maßstab der heutigen Gesellschaften möglich werden. Mit anderen Worten: Für den nicht autoritären Kommunismus ist eine erhebliche weitere Zunahme der Informationskomplexität notwendig. Im Gegensatz dazu kann der Faschismus als ein Versuch gesehen werden, Größenwachstum (imperiale Bestrebungen), gekoppelt mit einer dramatischen Unterdrückung aller Ebenen der Komplexität, zu erreichen.

        Historisch gesehen haben sich Gesellschaften, die versuchten ein kommunistisches Produktionssystem einzuführen in Ermangelung eines ausreichenden Maßes an Informationskomplexität auf zentralisierte Planung verlassen und griffen auf autoritäre Politikformen zurück. Trotz dieser Erfahrung haben viele politische Kräfte, von den frühen Sozialdemokratien über den Eurokommunismus der Nachkriegszeit (wie die italienische PCI) bis hin zum gegenwärtigen demokratischen Sozialismus, immer wieder betont, dass statistische Lösungen für das Problem der großräumigen Verteilung von Dienstleistungen im Sozialismus in nicht-autoritären Formen existieren können. Solche Lösungen würden sich allerdings immer noch auf Formen des Zwangs (Besteuerung, polizeiliche Durchsetzung) stützen, um die Aufgabe der Beschaffung und Verteilung von Ressourcen zu bewältigen. Wie gutartig solche Formen des Zwangs auch präsentiert werden, langfristig macht die Tatsache, dass ein funktionierendes System durch die Androhung von Gewalt funktionsfähig gehalten werden muss, es von Natur aus angreifbar.

        Letztlich waren sowohl Victor Glushkows nicht realisiertes kybernetisches Netzwerk in der Sowjetunion als auch Stafford Beers unvollendetes Cybersyn-System in Allendes Chile Versuche, die Verarbeitungsfähigkeit von Informationskomplexität in ihren jeweiligen Gesellschaften zu erhöhen, als ein notwendiges Instrument für die mögliche Existenz eines dezentralisierten nicht-autoritären Kommunismus, der sich bis auf die Ebene großer Netzwerke ausdehnen würde.


2.3. Kommunistischer Einwand gegen Märkte. Ich möchte an dieser Stelle auch wiederholen, dass der wichtigste kommunistische Einwand gegen Märkte darin besteht, dass eine bessere und ausgefeiltere Mathematik erforderlich ist, um das Problem der Größenordnung in einer kommunistischen Wirtschaft und in einem dezentralisierten, nicht-autoritären Umfeld zu formulieren und anzugehen, als es derzeit durch die Entlehnung der Marktmechanismen vom Kapitalismus möglich ist. Sich mit unzulänglichen mathematischen Methoden zu begnügen, wird zu ineffektiven und unerwünschten Lösungen führen. Der Kapitalismus und seine einhergehenden Katastrophen können auf Grundlage des Profits mit der Welle eines einfachen Optimierungsprozesses schwimmen, was mit weitreichender Verheerung einhergeht, was aber nichts ist, das man zu emulieren versuchen sollte. Wenn ein Problem sowohl schwierig als auch interessant genug ist, um de novo die Entwicklung eines geeigneten theoretischen Apparates zu verdienen, dann ist das „Was getan werden muss“, ohne sich auf zweifelhafte kapitalistische Abkürzungen einzulassen.

        Ich halte diese Klarstellung für notwendig, weil es die weitverbreitete Tendenz gibt, einen kommunistischen Einwand gegen Märkte in Form eines allgemeinen Einspruchs gegen den Einsatz mathematischer Optimierungs- und Analysemethoden zu formulieren. Ich wünschte, ich könnte dies einfach als einen Nebeneffekt des historisch düsteren Zustands des Kommunismus in Nordamerika abtun. Allerdings haben prominente Persönlichkeiten in der Tradition des europäischen nicht-autoritären Kommunismus (wie z. B. Autonomia) in jüngster Zeit diesen Standpunkt unterstützt, wie man z. B. in den jüngsten Schriften von Bifo, [5], [6] sehen kann. Zum Beispiel findet man in [5] „wir können argumentieren, dass die Loslösung des gesellschaftlichen Lebens von der erbitterten Herrschaft der mathematischen Exaktheit eine poetische Aufgabe ist, da die Poesie der Exzess der Sprache ist“ und in [6] „Die Macht basiert heute auf abstrakten Beziehungen zwischen numerischen Entitäten […] Es gibt keinen politischen Ausweg aus dieser Falle: Nur die Poesie, als Exzess des semiotischen Austauschs, kann Atmung reaktivieren.“ . Ungeachtet dessen, was Bifo und andere vermuten, gibt es keine Identifikation zwischen mathematischer Abstraktion und Finanzkapitalismus, verglichen mit einer poetischen Opposition zur Abstraktion. Unter diesen Bedingungen ergibt diese Opposition keinen Sinn, nicht nur, weil Poesie von Natur aus weitgehend eine Form der Abstraktion und Mathematik der poetischen Vorstellungskraft ist, sondern weil es genau unsere Fähigkeit einer poetisch-mathematischen Imagination ist, die es uns ermöglichen wird, uns eine funktionierende Alternative zur Welt des Kapitalismus und der Finanzen vorzustellen. Wie oben im historischen Fall von Kolmogorows linearer Programmierung besprochen, ist die pauschale Opposition gegen mathematische Modellierung eine rein stalinistische Reaktion, kein Standpunkt, den sich der Anarchokommunismus zu eigen machen sollte. Der Kommunismus ist in seiner Essenz techno-optimistisch: Das ist etwas, das für bestimmte primitivistische anti-civ Marken des Anarchismus schwer zu verdauen sein mag, aber es liegt in der Natur sowohl des Sozialismus als auch des Kommunismus, dass die Beschlagnahme der Produktionsmittel die Existenz ausreichend ausgefeilter Produktionsmittel erfordert, die es wert sind, beschlagnahmt zu werden. Das Bestreben, entscheidende Probleme wie die Verteilung von Ressourcen und Dienstleistungen in einer kommunistischen Wirtschaft durch eine sorgfältige wissenschaftliche und mathematische Analyse anzugehen, ist der natürliche Ansatz in einem kommunistischen Umfeld. Nochmals, wenn es nicht die Tatsache gäbe, dass die gegenwärtige kommunistische (und anarcho-kommunistische) Szene in ihren Ansichten über Wissenschaft und Technologie so merkwürdig verzerrt ist, gäbe es absolut keine Notwendigkeit, solche selbstverständlichen Klarstellungen vorzunehmen.

        Der gewinnorientierte Maximierungsprozess der Märkte ist keine gangbare Option, nicht weil „Profit“ ein schlechtes Wort ist (ist es!), sondern wegen der Art und Weise, wie die Dynamik funktioniert: Selbst wenn man mit einem idealen Ausgangszustand gleichverteilter Reichtümer beginnen könnte, werden selbst sehr kleine Schwankungen erheblich verstärkt und reproduzieren rasch eine Situation ungleichmäßiger Akkumulation. In der Gewinndynamik der Märkte ist eine gerechte Vermögensverteilung notwendigerweise ein instabiler Zustand. Das ist im Wesentlichen der Grund, warum Märkte nicht vom Kapitalismus befreit werden können. Märkte sind ein automatisierter Generator kapitalistischer Wohlstandsungleichheiten, die schnell und einfach alle hart erkämpften Gewinne zunichte machen können, deren Erzielung große soziale Umwälzungen und schwierige revolutionäre Aktionen gekostet hat. (Wir alle wollen eine Revolution, aber nicht eine, die sofort zunichte gemacht wird, nur weil jemand die gemeinhin als Märkte bekannte Turbokapitalismus-Wiederherstellungsmaschinerie wieder in Gang setzt!). Um eine ausufernde Wirkung der Anhäufung von Vermögensdisparitäten zu vermeiden, muss man einen ganz anderen Optimierungsprozess entwerfen, der nicht im Marktmechanismus der Gewinnmaximierung angesiedelt ist.

Ich werde einen metaphorischen Vergleich anstellen, um diesen Standpunkt besser zu erklären. Als in der Geschichte der modernen Physik quantenmechanische Phänomene eines tragfähigen theoretischen Verständnisses bedurften, wandten die Physiker Methoden an, die schon vorher bekannt und verfügbar waren, wie etwa die lineare Algebra oder lineare partielle Differenzialgleichungen. Dies bedeutet nicht, dass eine direkte Anpassung der mathematischen Modelle, die für die Beschreibung der klassischen Physik verantwortlich sind, ein gutes Modell liefern würde, das in der Lage wäre, quantenmechanische Probleme zu lösen. Das Debakel der „verborgenen Variablen“ zeigte, dass ein klassisches physikalisches Modell der Quantenphänomene tatsächlich einfach nicht möglich ist. Im Gegenteil: Eine völlig neue mathematische Theorie, die auf Hilbert-Räumen und Operator-Algebren basiert, wurde vollständig zum Zweck der Beschreibung der Quantenphysik entwickelt.

Wenn ich sage, dass man das richtige mathematische Modell entwickeln muss, um das Skalenproblem im anarcho-kommunistischen Umfeld zu lösen, meine ich damit nicht, dass bestehende Methoden nicht als partielle Bausteine und Zwischenlösungen verwendet werden sollten. Wie ich im nächsten Abschnitt erläutern werde, gibt es eine Menge verfügbarer Theorie, die nützlich sein wird, und angewendet werden sollte. Ich meine, dass wir dasselbe anstreben sollten, was auch bei der Entwicklung einer mathematischen Theorie für eine zufriedenstellende prädiktive Beschreibung der Quantenmechanik passiert ist: Bestehende Modelle selbst würden keine Lösung bringen und ein komplett neues theoretisches Konstrukt musste errichtet werden, obwohl einige der Grundbausteine aus früheren Theorien bereits vorhanden waren.


  1. SELBSTORGANISATION IN NETZWERKEN UND DAS ANARCHISTISCHE SKALIERUNGSPROBLEM

Ich versuche hier nicht, eine Lösung für das Skalierungsproblem im Anarchismus zu präsentieren, sondern einige meiner Meinung nach wichtige Aspekte hervorzuheben, die hoffentlich zu einer präziseren Formulierung des Problems führen werden. Dieser Abschnitt wird technischer sein, da ich einige Analysemethoden komplexer Netzwerke vorstellen werde, von denen ich glaube, dass sie als Teil notwendiger Werkzeuge betrachtet werden sollten, um das Skalierungsproblem im Anarchismus anzugehen.

        Eine fundamentale Annahme, um das Wachstumsproblem im Anarchismus präziser zu formulieren, ist, dass Anarchismus im Kern ein selbstorganisatorischer Prozess in komplexen Netzwerken ist. Selbstorganisatorische Phänomene in Netzwerken sind in der Theorie komplexer Systeme durch eine Reihe an Modellen von Telekommunikationssystemen bis hin zu Neurowissenschaft gut erforscht. Was wir jedoch entwickeln müssen, geht weiter als eine Umstellung oder direkte Anwendung dieser Modelle. Was ich hier gerne skizzieren möchte, ist eine kurze Übersicht dessen, was ich als entscheidende und schwierigere Aspekte des Problems ansehe.

        In seinem berüchtigten 1920 Essay Märkte über den damals rapide entwickelnden Trend Richtung sozialdemokratischer Planung zu fördern, zielte Ludwig von Mises darauf ab, Märkte als effiziente rechnerische Maschinen zu präsentieren. Im einleitenden Essay [9] wird diskutiert: “Die Herausforderung, die Mises für den Sozialismus darlegte, war eine absolut Technokratische: eine rivalisierende rechnerische Infrastruktur zu schaffen, die dem Preissystem gleichkam […] Es war eine Herausforderung, der sich nur wenige Sozialisten erfolgreich entziehen konnten und noch weniger, die sie erfolgreich meisterten.”

        Das Fehlen einer überzeugenden Entwicklung einer solchen „rivalisierenden sozialistischen Rechnerinfrastruktur“ ist höchst bedauerlich. Um ehrlich zu sein, ist es jedoch durchaus möglich, dass die Mathematik, die erforderlich ist, um eine tragfähige sozialistische/kommunistische Antwort auf Mises‘ Herausforderung zu geben, zu diesem Zeitpunkt und für eine recht lange Zeit danach einfach nicht verfügbar war. Selbst zum Zeitpunkt der größten Versuche, Formen kybernetischen Kommunismus zu implementieren, den 60er und 70er-Jahren, steckte die Theorie komplexer Netzwerke noch in ihren Kinderschuhen. Es ist sehr wahrscheinlich, dass die Anstrengungen von Viktor Glushkov und Stafford Beer selbst mit der richtigen Grundidee gescheitert wären, wären sie innerhalb der zu der Zeit verfügbaren wissenschaftlichen und technologischen Rahmenbedingungen implementiert worden, schlicht, weil die Kapazitäten der Informationsverarbeitung immer noch zu gering und entscheidende mathematische Werkzeuge noch nicht verfügbar waren. Wir sind heute in einer wesentlich besseren Position, machbare Opposition zu Märkten zu bereitzustellen, es gibt also nicht länger eine Entschuldigung, diese Aufgabe aufzuschieben.

        Was ich in diesem Abschnitt schreibe, sollte als eine Übung in der Art von “Wirtschaftlicher Science Fiction” betrachtet werden, welche ausführlich in [9] diskutiert wird und in einer Form mathematischer Imagination, wie ich sie oben erwähnt habe. Es soll die mathematische Form einer kybernetischen kommunistischen Recheninfrastruktur abbilden, welche die Profitoptimierung der Märkte ersetzen würde.


3.1. Komplexität. Zuallererst, Komplexität ist hier der Schlüsselbegriff, es ist aber auch eine sehr Subtile, welche sich nicht leicht messen lässt. Der Hauptbegriff von Komplexität in der Mathematik ist die Kolmogorov-Komplexität, welche die Komplexität von Etwas als die Länge des kürzesten Prozesses (Algorithmus) der sie durchführen kann, klassifiziert [23]. Nämlich,

(1)                                  

was bedeutet, dass die Komplexität von 𝑥 in der minimalen Länge 𝓁(𝑃) unter allen Programmen 𝑃 mit der Eigenschaft, die, wenn auf einem universalen Rechner (Turing Maschine) 𝑇𝑈 ausgeführt, den Output 𝑥 erbringen. Ich schreibe dies explizit aus, da es den Vergleich mit anderen Begriffen vereinfacht und auch, weil ich die Version der “relativen Komplexität” erwähnen möchte, worauf ich später wieder zurück komme. Dies ist gegeben bei

(2)                                 

was dasselbe ist, aber die Rechenmaschine 𝑇𝑈 den Input 𝓎 zusätzlich zu Programm 𝑃 zu verwenden, um 𝑥 zu berechnen.

        Kolmogorov-Komplexität ist in sich selbst eine nicht-berechenbare Funktion, da das “Halteproblem”, entscheidend, ob ein Programm endlos laufen wird oder an einem Punkt mit einem Output stoppt, selbst ein nicht entscheidbares Problem ist. Überraschenderweise ist die Nicht-Berechenbarkeit selbst kein schwieriges Hindernis, denn Kolmogorov-Komplexität hat viele gute verarbeitbare obere Schranken (durch einen Komprimierungsalgorithmus), daher kann er nicht berechnet werden, aber durch Exzess auf einem berechenbaren Weg angenähert werden. Es gibt allerdings für die Verwendung der Kolmogorov-Komplexität einen weiteren ernsteren Nachteil: Sie stimmt nicht mit dem intuitiven Begriff von Komplexität überein, den man gerne modellieren möchte, in dem Sinne, dass sie zwar geringe Komplexität leicht prognostizierbaren Mustern zuweist, sie aber bei absolut zufälligen Mustern maximal ist. Zufälligkeit zu maximieren ist ganz klar nichts was man erreichen möchte, egal was die naive Fehlvorstellung von Anarchismus, die unter Liberalen kursiert, andeuten möchte. Shannons Entropie ist nahe an der gemittelten Version der Kolmogorov-Komplexität,

und sie hat dieselbe Tendenz Zufälligkeit zu entdecken, daher hilft sie allein nicht.

Es gibt verschiedene Wege, Komplexitätsmaße zu entwickeln, die besser darauf ausgerichtet sind “strukturierte Komplexität” zu erkennen, als Komplexität aufgrund der Unvorhersehbarkeit von Zufälligkeit. Eine erste mögliche Modifikation der Kolmogorov-Komplexität, die eine Form von “organisierter Komplexität” erfasst, ist durch Logische Tiefe gegeben. Dieser Begriff wurde in [3] vorgestellt und verwendet die Ausführungszeit eines nahezu-minimalen Programms, statt der Länge des minimalen Programms, wie im Kolmogorov Fall. Nämlich,

(3)                         

was bedeutet, das Minimum der Ausführungszeit eines Programms 𝑃, welches 𝑥 ausgibt, dessen Länge gleich oder nur ein wenig größer als das Minimale (dessen Länge 𝐾(𝑥) ist). Wie viel Längenabweichung zwischen dem Minimalen 𝐾(𝑥) und 𝓁(𝑃) besteht, wird mit einem variablen Parameter 𝛼 gemessen. (Präziser, man verwendet eine leicht andere Form der Kolmogorov-Komplexität 𝐾(𝑥) in (3), aber ich werde hier nicht zu sehr ins Detail gehen: Diese können in [2] gefunden werden). Der Übergang von minimal zu fast minimal soll nur das Problem vermeiden, dass einige etwas längere Programme eine kürzere Ausführungszeit haben können. Noch interessanter ist, dass der Übergang von der Länge eines Programms zu seiner Ausführungszeit zunächst wie eine geringfügige Änderung erscheinen mag, da die Ausführungszeit als eine andere Form der Länge (in der Zeit und nicht im Speicher) angesehen werden kann, aber die Wirkung ist signifikant, um die Rolle der Zufälligkeit in hochkomplexen Mustern zu reduzieren. Eine Diskussion zum Vergleich der Kolmogorov-Komplexität und Logischer Tiefe kann in [10] gefunden werden. Der Grund, weshalb ich nicht diese einfache Modifikation der Kolmogorov-Komplexität verwenden möchte, liegt in einem “Phasenübergangs”-Phänomen, welches in [2] beschrieben wird und welches ich in einem Moment beschreiben werde, welches es schwer macht, Logische Tiefe als Basis für die Konstruktion einer Optimierungsfunktion zu verwenden.

Murray Gell-Mann schlug den Begriff “Effektiver Komplexität” vor und einen Begriff “Potenzieller Komplexität” [11], welcher enger den intuitiven Begriff, den wir von Komplexität haben, als höchst strukturiertes Phänomen ergreifen soll. Effektive Komplexität soll den Informationsgehalt der “Gesetzmäßigkeiten” eines Musters einfangen, während potentielle Komplexität ein ähnlicher Begriff ist, der Änderungen in der Zeit umfassen soll. Eine erste mathematische Rechnung effektiver Komplexität wurde in [12] gegeben. Unglücklicherweise hat bisher keiner dieser Begriffe eine komplett gründlich entwickelte mathematische Formulierung. Wir können allerdings trotzdem da starten, wie die Dinge bei diesen vielversprechenden Begriffen der Komplexität stehen und sehen, was mit ihnen gemacht werden kann.

Ein guter Überblick über die Situation mit diesen Komplexitätsmaßen ist in [2] gegeben, worauf ich mich in dieser kurzen Zusammenfassung hier beziehen werde. Um eine gut funktionierende Beschreibung effektiver Komplexität zu bekommen, betrachtet man zuerst eine Kombination aus Kolmogorov-Komplexität und Shannon Entropie, genannt die “totale Information” 𝐾(𝔼) + 𝐻(𝔼). Sie kann als algorithmische Komplexität der Berechnung 𝑥 (Kolmogorov Teil 𝐾(𝑥|𝔼)) durch Verarbeitung des statistischen Ensemble 𝔼, dass 𝑥 zu (Shannon Teil 𝐻(𝔼)) gehört, beschrieben werden. Die beste Wahl für das statistische Ensemble 𝔼 für ein gegeben 𝑥 wird durch die Notwendigkeit das es die totale Information minimiert gewählt, was eine Möglichkeit ist, zu sagen, dass sie die wahrscheinlichste Erklärung für das Faktum 𝑥 ist. Mit Auswahl des korrekten Modell 𝔼, kann nun erkannt werden, ob das Element 𝑥 “typisch” in diesem statistischen Ensemble ist, indem geprüft wird, ob die Wahrscheinlichkeit 𝔼(𝑥) nicht viel kleiner als die durchschnittliche Größe 𝟐−𝐻(𝔼) ist, die durch die Shannon Entropie vorausgesagt wurde. Gegeben 𝑥, wählt man auf diesem Weg nun das Set 𝓜𝑥 aller möglicher Ensembles 𝔼 mit kleiner totaler Information und für welches 𝑥 typisch ist (möglicherweise mit zusätzlichen Einschränkungen auf welches Set “guter Theorien” man einbeziehen möchte). Die “effektive Komplexität” 𝓔(𝑥) ist der minimale Wert der Kolmogorov-Komplexität 𝐾(𝔼) unter all diesen möglichen Modellen 𝔼,

(4)                                 

Beachte, wie wir die effektive Komplexität hier als Minimum an Kolmogorov-Komplexität definieren, mit einem bestimmten Set an statistischen Modellen 𝔼, die das gegebene Faktum 𝑥 erklären, um damit die einfachste Erklärung aus einem Set plausibler Theorien auszusondern. Dies scheint den Fakt zu kontern, den ich früher erwähnt hatte, nämlich, dass wir auf eine Maximierung informationeller Komplexität abzielen. Diese Maximierung steht jedoch noch aus: Die von mir soeben beschriebene Minimierung ist lediglich ein notwendiger vorbereitender Schritt, der einem Faktum einen angemessenen Komplexitätswert zuweist.

Was hat man gewonnen, wenn man die effektive Komplexität 𝓔(𝑥) verwendet, statt Kolmogorov-Komplexität 𝐾(𝔼) oder Shannon Entropie 𝐻(𝔼)? Der größte Vorteil ist, dass komplett zufällige Muster nun eine kleine effektive Komplexität haben! Damit werden Objekte mit großer effektiver Komplexität durch “strukturierte Komplexität” und nicht durch Zufälligkeit verursacht. Es wird nicht sofort offensichtlich, dass effektive Komplexität zufälliger Muster klein ist: Ein Beweis dieser Tatsache ist zum Beispiel in Theorem 10 in [2] gegeben, während einige Fälle nicht-zufälliger Muster, die große effektive Komplexität zeigen, in Theorem 14 in [2] beschrieben sind.

        Das “Phasenübergangs”-Phänomen, welches ich oben für das Verhalten Logischer Tiefe erwähnt habe, basiert darauf, wie 𝐷(𝑥) sich im Vergleich zu effektiver Komplexität 𝓔(𝑥) verändert. Es kann gezeigt werden (siehe Theorem 18 in [2] für Details), dass für kleine Werte von 𝓔(𝑥) Logische Komplexität ebenfalls kleine Werte annehmen kann, aber wenn effektive Komplexität einen Schwellenwert überschreitet (der von Kolmogorov-Komplexität abhängt), springt die Logische Tiefe plötzlich zu extrem hohen Werten. Dieser plötzliche Phasenübergang im Verhalten von 𝐷(𝑥) macht das ungünstig für unser Ziel, während effektive Komplexität 𝓔(𝑥) besser passt.

        Im Fall der Shannon Entropie hat man eine ähnliche relative Version, welche die informationellen Unstimmigkeiten zwischen zwei statistischen Modellen messen, nämlich die Kullback-Leibler-Divergenz

(5)                                 

In Bayesschen Ausdrücken, misst sie die Information, welche bei dem Übergang von der vorherigen Wahrscheinlichkeit ℙ zu der späteren 𝔼. Relative Kolmogorov-Komplexität (2) kann in einer ähnlichen Art als Form von Informations-Distanz verwendet werden, [4]. Man kann unter Verwendung der relativen Kolmogorov-Komplexität einen verwandten Begriff der relativen effektiven Komplexität, 𝓔(𝑥|𝓎), konstruieren, der auch als ein Maß für den Verlust/Gewinn an Informationskomplexität angesehen werden kann.

        Nehmen wir also an, dass so etwas wie dieses 𝓔(𝑥|𝓎) einen Messkandidaten liefert, der berücksichtigt, ob die Informationskomplexität durch einen Prozess erhöht oder verringert wird, ein Zustand 𝓎, den das System vorher einnahm, in einen neuen Zustand, gegeben durch 𝑥, ändert. Und nun? Wir müssen noch abwarten, wie sich dies auf Netzwerke und ihre Struktur im kleinen und großen Maßstab auswirkt.


3.2. Eine Idee aus der Neurowissenschaft. Anarchisten stehen dem kommunistischen Begriff von Kollektivität traditionell skeptisch gegenüber und kontrastieren ihn oft mit unterschiedlichen Graden des Individualismus. Das Wort “Kollektivismus” löst (berechtigt) Alarm über stalinistische Zwangskollektivierung und Unterdrückung individueller Handlungsfähigkeit aus. Auf der anderen Seite bietet das Wort “Individualismus” dem Kommunisten einen billigen Strohmann und beschwört ein geistiges Bild einer Art konvexen Linearkombination zwischen J.D. Salinger und Ayn Rand herauf, der neoliberalen Haien die Furcht vor Unterdrückung und kollektivem Handeln in die Hände spielt. Dies ist insgesamt kein produktiver Stand der Dinge. Die eigentliche Frage, die man sich stattdessen stellen sollte, ist die, wie eine Form von “Kollektivität” aussehen könnte, die überall lokal die individuelle Handlungsfähigkeit maximiert, während sie kollektiv entstehende Strukturen möglich und interessant macht (im gleichen Sinne der zuvor beschriebenen Komplexität). Ich werde diese Frage im Licht neu entwickelter Ideen aus der Neurowissenschaft besprechen, der Modellierung von Brain Networks und der Bewusstseinstheorie.

        Eine beachtliche Menge Arbeit für das Verständnis der Struktur komplexer Netzwerke kommt aus der Neurowissenschaft. Eine Idee, die speziell für das, was wir hier zu modellieren versuchen, relevant ist, ist der Begriff integrierter Information, der ursprünglich in [33] als quantitatives Bewusstseinsmodell vorgeschlagen wurde. Ein allgemeiner Überblick dieser Idee wird in [20], [25] präsentiert.

        Die Grundidee ist, dass integrierte Information die Menge informationeller Komplexität in einem System, welches nicht separat reduzierbar auf seine individuellen Komponenten ist, misst. Es ist ein Weg, um zu erklären, wie vielfältig die Möglichkeiten einer kausalen Beziehung zwischen verschiedenen Teilen des Systems sind.

        Ein Weg, diese Idee präziser auszudrücken wurde in [30] entwickelt. Man berücksichtigt alle möglichen Wege, ein gegebenes System in Subsysteme (ein Netzwerk in kleinere lokale Subnetzwerke zum Beispiel) zu splitten. Für jede solche Partition λ berücksichtigt man den Zustand des Systems zu einer gegebenen Zeit 𝑡, wie durch ein Set Observablen 𝑋𝑡 beschrieben, und den Zustand zu einer Zeit in naher Zukunft 𝑋𝑡+1. Die Partition λ zu 𝑁 Subsystemen, korrespondiert zu einer Splittung dieser Variablen
𝑋𝑡 = { 𝑋𝑡,1,…, 𝑋𝑡,𝑁 } und 𝑋𝑡+1 = { 𝑋𝑡+1,1 ,…., 𝑋𝑡+1,𝑁 } in Variablen, die die Subsysteme beschreiben. Alle diese kausalen Zusammenhänge unter den 𝑋𝑡,𝑖 selbst, oder unter den
𝑋𝑡+1,𝑖, genauso wie die kausalen Einflüsse der 𝑋𝑡,𝑖 auf die 𝑋𝑡+1,𝑗 durch die zeitliche Evolution des Systems, werden (statistisch) durch die multivariate Verteilung (𝑋𝑡+1, 𝑋𝑡) erfasst. Um die integrierte Information des Systems zu erfassen, vergleicht man den Informationsgehalt dieser multivariaten Verteilung mit dem von Verteilungen, wo die einzige kausale Abhängigkeit zwischen 𝑋𝑡+1 und 𝑋𝑡 durch die Evolution innerhalb jedes separaten Subsystems besteht, aber nicht durch Subsysteme hindurch, was Wahrscheinlichkeitsverteilungen (𝑋𝑡+1, 𝑋𝑡) mit der Eigenschaft
(𝑋𝑡+1,𝑖|𝑋𝑡) = (𝑋𝑡+1,𝑖|𝑋𝑡,𝑖) für jedes Subset 𝑖 = 1,…,𝑁 dieser Partition bedeutet. Benennen wir 𝓜λ als Set von Wahrscheinlichkeitsverteilungen (𝑋𝑡+1, 𝑋𝑡) mit dieser Eigenschaft in Bezug zu Partition λ. Dann bekommt man die integrierte Information 𝚽 dieses Systems, indem man die Kullback-Leibler-Divergenz (5) minimiert, zwischen dem tatsächlichen System und dessen bester Annäherung bei Wahrscheinlichkeiten, welche die kausale Trennung der Verbindung zwischen den Subsystemen implementieren und die bei minimaler Informationspartition evaluieren (also über die Wahl der Partition minimieren). 

(6)                        

Der Wert 𝚽, der auf diese Art gewonnen wird, repräsentiert die zusätzliche Information im gesamten System, die nicht weiter in kleinere Teile reduziert werden kann. Es ist die Art, das Konzept der “Ganzheitlichkeit” in informationellen Termini auszudrücken.

        Da wir mehr an effektiver Komplexität als an informationellen Messwerten wie der Kullback-Leibler-Divergenz interessiert sind, kann man eine Version integrierter Information entwickeln, in der die Diskrepanz zwischen dem System und der kausalen Trennung in Subsysteme durch eine relative effektive Komplexität (wie oben besprochen) gemessen wird, statt durch die Kullback-Leibler-Divergenz (Details nicht hier: Dies ist nicht der Platz, um neue Theoreme zu beweisen).

        Von Details abgesehen, zielen wir hier darauf ab, eine umsetzbare Messgröße für einen Optimierungsprozess zu schaffen. Integrierte Information zu maximieren (in einer Version effektiver Komplexität) würde bedeuten, ein System zu bekommen, das die maximal mögliche Integration informationeller Komplexität über alle möglichen Subsysteme hinweg und das höchste Level kausaler Vernetzung realisiert.

        Wir können erkennen, warum dies im Grunde das tut, wonach wir gesucht haben. Die Maximierung unserer integrierten Information 𝚽 bevorzugt Kooperation über Wettbewerb, da Wettbewerb dazu tendiert, ein System in separate Wettbewerber aufzuteilen, was die 𝚽-Funktion vermindert, während Kooperation Vernetzung zunehmen lässt und das Netzwerk wechselseitiger kausaler Einflüsse wachsen lässt, was zu einer Steigerung von 𝚽 führt. Zudem würde ein Mechanismus, der 𝚽 maximiert, widerliche Phänomene wie geistiges Eigentum auslöschen, da die Zurückhaltung von Wissen dessen kausale Vernetzung mindert und damit 𝚽 mindert. 𝚽 zu steigern führt nicht zu kapitalistischer Vermögensakkumulation, da die Konzentrierung von Vermögen und Ressourcen dazu neigt, bestimmte Subsysteme zu separieren und deren wechselseitige kausale Einflüsse mit den restlichen Netzwerk-Subsystemen vermindert und das würde die allgemeine Integration informeller Komplexität durch das gesamte System herabsenken. Integrierte Information ist per Definition eine “Kollektivität”, denn sie ist genau die Summe informationeller Komplexität, die im Kollektiv weilt, ohne in einem separaten individuellen Subsystem verortet zu sein. Auf der anderen Seite ist es eine Kollektivität, die individuelle Handlungsfähigkeit denn sie Maximiert den Grad kausalen Einflusses, und damit die mögliche Handlungsfähigkeit, jedes einzelnen Subsystems.


3.3. Instrumente und Mechanismen. Die Profitdynamik in Märkten ist kein Naturgesetz: sie ist künstlich durch eine Maschinerie aus verschiedenen Instrumenten, wie Währungen, Schuld- und Kreditsysteme, etc. implementiert. Wenn wir eine Dynamik aus integrierter informationeller Komplexität einführen möchten, müssen wir, ähnlich dessen, passende Instrumente, die dies umsetzen, ausarbeiten. Das ist natürlich ein nicht unerheblicher Teil des Problems, doch einige allgemeine Richtlinien lassen sich klar in unserem früher in dieser Sektion beschriebenen Denkbild integrierter Information basierend auf effektiver Komplexität erkennen. Es gibt zwei Hauptaspekte, die dazu beitragen können, unseren Messwert 𝚽 zu Steigern: das Wachstum des Netzwerks aus kausalen Bezug und die Zunahme in relativer effektiver Komplexität. So können wir im Großen und Ganzen zwei

Klassen von Instrumenten, die bei der Umsetzung dieser Dynamik nützlich sind, indem sie jeweils diese beiden Aspekte der integrierten informationellen Komplexität erhöhen, identifizieren: Ich werde sie Instrumente des Zusammenhangs und Instrumente der Komplexität nennen.

  1. Instrumente des Zusammenhangs. Dies sind Mechanismen die den Vernetzungsgrad und wechselseitige kausale Einflüsse zwischen allen verschiedenen Bereichen eines Netzwerks erhöhen. Wir können bei ihnen alle Technologien, die Vernetzung erhöhen, einbeziehen: öffentlicher Transport (ja, die anarchistische Eisenbahn), P2P Netzwerke, kabellose Mesh-Netzwerke für lokale Gemeinschaften, skalierbare Ressourcen für Distributed Computing wie Holochain, Bibliotheken (sowohl physisch als auch virtuell), Open-Source und Open-Access-Initiativen, bis hin zu groß angelegten Zielen, wie der Abschaffung von Grenzen. Das von der kasachischen anarchistischen Entwicklerin Alexandra Elbakyan entwickelte Sci-Hub Projekt ist ein großartiges Beispiel eines Instruments, welches die freie Verbreitung von Wissenschaft erleichtert.
  2. Instrumente der Komplexität. Kultur generiert effektive Komplexität: Philosophie, Wissenschaft, die bildenden Künste, Musik, und ja, Poesie! Bücher (physisch und digital), Kunstobjekte, Performance: Sie sind alle Instrumente, um effektive Komplexität zu erhöhen. Um zurück auf Bifos Bild von Poesie gegen Finanz zu kommen, [5], [6], in der zutreffenden Wahrnehmung, dass er nicht falsch lag: Poesie ist ein gutes Beispiel von Etwas, das Komplexität aber nicht Profit wachsen lässt. Instrumente der Komplexität sind typischerweise das, was durch Profit getriebene Dynamiken des Marktes ausgelöscht werden würde und die stattdessen wesentlich für die Dynamiken kybernetischen Kommunismus durch integrierte informationelle Komplexität sind.

        Natürlich ist das nur ein kurzer Blick aus der Vogelperspektive auf die Art der Instrumente die die rechnerische Maschinerie des kybernetischen Kommunismus versorgen, in Opposition zu der Maschinerie der Märkte. Diese Dinge könnten (und sollten) präziser formuliert werden.

        Schon auf dieser einfachen Ebene lässt sich jedoch erkennen, wie effektive Komplexität und die damit verbundene Form der integrierten Information als „objektive Bewertung“ im Sinne der Definition Kantorowitschs in [18] im Gegensatz zu den subjektiven Preisbewertungen der Märkte funktionieren kann. Um ein explizites Beispiel zu sehen, wie dies funktioniert, betrachten wir eines der oben erwähnten “Instrumente der Komplexität”: die bildenden Künste. Betrachten wir Malereien: In einem Marktsystem ist der Wert der Kunst den Launen des Kunstmarktes unterworfen, dessen absolut vernichtende Effekte auf zeitgenössische Kunst, beginnend in den 1980ern, hinlänglich diskutiert worden sind, [17]. In einem System kybernetischen Kommunismus ist Kunst ein Instrument für wachsende Komplexität. Seine objektive Bewertung ist der Inhalt effektiver Komplexität. Dies kann natürlich auf vielen Ebenen evaluiert werden, angefangen mit der Beziehung des Kunstwerks zu seiner zeitgenössischen Gemeinschaft. Um das Beispiel einfach zu halten, wollen wir uns jedoch nur auf das konzentrieren, was als „ästhetische“ Ebene angesehen werden kann. In der Regel ist das der schwierigste und persönlichste zu bewertende Aspekt, aber in unserem Rahmen versuchen wir nur seine Wirkung als Komplexitäts Generator zu schätzen. Wenn man genau betrachtet, wie Malereien in verschiedenen Kunstrichtungen durch die Kunstgeschichte hindurch auf einer Ebene mit Koordinaten, gegeben durch Shannon Entropie und Kolmogorov Komplexität (wie in [32] geschehen), verteilt sind, findet man eine interessante Verteilung, in der Kunstrichtungen wie Minimalismus, Farbfeldmalerei und Konzeptkunst haben höhere Werte der Kolmogorov Komplexität und niedrigere Werte der Shannon Entropie, andere, wie Lyrische Abstraktion, Abstrakter Expressionismus und Op-Art haben mittlere Werte von beidem und am anderen Ende haben Kubismus, Tachismus und Pointilismus hohe Shannon Entropie und geringe Kolmogorov Komplexität. Noch interessanter ist allerdings, dass unter den Bedingungen der Totalen Informations-Funktion (die, wenn wir uns erinnern, eine Summe aus Shannon Entropie und Kolmogorov Komplexität ist) alle diese verschiedenen Kunstformen um sehr ähnliche Werte plaziert sind, da sie (wie in [32] gezeigt), in der (𝐻, 𝒦) Entropie-Komplexitäts-Ebene grob um eine Linie mit konstanter Summe 𝒦 + 𝐻 verteilt sind. Das unterstützt die Idee, dass bildende Kunst (in diesem Fall Malerei) als ein Instrument der Komplexität mit bestimmter objektiver Kapazität für die Generierung effektiver Komplexität funktioniert.

        Diese Sicht der Künste und Kultur und ihre wesentliche Rolle in der Dynamik sozialistischer Entwicklung ist sehr ähnlich der ursprünglichen großen Vision der anarcho-kommunistischen Avantgarde im Anlauf der Russischen Revolution und in den direkt darauf folgenden Jahren, bevor der Stalinismus sie komplett ausgelöscht hat, [1], [8], [15].


3.4. Multidimensionale Netzwerke. In der Modellierung des Skalierungsproblems passiert der Übergang vom Kleinen zum Großen durch Vernetzung. Wir nehmen an, dass das Problem der anarcho-kommunistischen Organisation in kleinen Größenordnungen gut funktioniert, was bedeutet, dass wir einzelne Kooperativen in Arbeiterbesitz und ähnliche Initiativen haben, die gemäß anarcho-kommunistischer Prinzipien arbeiten. Der Wachstumsprozess hin zu größeren Maßstäben basiert auf den Netzwerkstrukturen, die sie verbinden. Wir können annehmen, dass die Netzwerkknoten einzelne Kooperativen sind, da wir keine feinere Rasterung hin zu kleineren Größenordnungen brauchen. Nur an ein Netzwerk aus Verknüpfungen zu denken ist nicht ausreichend: Was man wirklich braucht, sind viele verknüpfte Netzwerke, welche verschiedene Formen des Teilens (oder verschiedene Arten an Diensten, Ressourcen, Informationen) beschreiben. Die zweckentsprechende Modellart für diese Art von Struktur wird durch die Theorie multidimensionaler Netzwerke gegeben, [7]. Nicht nur macht es das möglich, verschiedene simultan existierende Netzwerkstrukturen, welche verschiedene Formen des Teilens repräsentieren, zu beschreiben, es erlaubt auch eine Beschreibung wie jede dieser Ebenen sich über die Zeit in dynamischer Art durch Interaktion mit anderen Ebenen verändert. Grob sollten wir uns vorstellen, dass jedes der oben beschriebenen verschiedenen “Instrumente” seine eigene Ebene mit Wechselbeziehungen zu allen anderen Ebenen in einem mehrdimensionalen Netzwerk bildet. Im Allgemeinen ist es beim Studium großer komplexer Netzwerke, die ständigen zeitlichen Veränderungen unterworfen sind, besser, mit einem wahrscheinlichkeitstheoretischen Ansatz zu arbeiten und die möglichen Netzwerkstrukturen als ein statistisch-mechanisches Ensemble zu betrachten, bei dem bestimmte allgemeine Eigenschaften des Netzwerks als Einschränkungen festgelegt sind und man betrachtet Wahrscheinlichkeiten von Verbindungen zwischen Knoten, entweder innerhalb (Infralayer) oder über Schichten hinweg (Intralayer). Es sind verschiedene Modelle für das Wachstum von Netzwerken möglich: Insbesondere in Kooperationsnetzwerken, die der Art von Modellen, die wir in Betracht ziehen, nahe kommen, geht man gewöhnlich von Clusterung (triadic closure) aus. Dies bedeutet, dass, wenn ein neuer Knoten mit einem alten Knoten verbunden wird, ist es wahrscheinlicher, dass andere Knoten, die bereits Kollaboratoren der alten Knoten (Nachbarn im Netz) sind, eher auch mit dem neuen Knoten verbunden werden.

Außerdem könnten einige Kostenfunktionen in der Wahrscheinlichkeit einer Verbindung hinzugefügt werden: Zum Beispiel ist für Netzebenen, die die physische Verteilung von Diensten modellieren, die geographische Entfernung ein Kostenfaktor, während für die gemeinsame Nutzung von Informationen (vorausgesetzt, ein Infrastrukturnetz wie das Internet wird bereits von einer anderen Ebene berücksichtigt) die geografische Entfernung irrelevant ist. Dies ist wiederum ein Beispiel für die Tatsache, dass Bewertungen, welche die Kostenminimierung im Sinne der linearen Programmierung veranschlagen, selbst von der Schicht des Netzwerks und vom Maßstab abhängig sind. Im Hinblick auf den interessanteren Teil des Optimierungsprozesses, die Maximierung der integrierten Informationskomplexität, kann man eine Dynamik für das Netzwerk betrachten, die häufig verwendete Modelle zur Maximierung der Shannon Entropie verallgemeinert, [7].

3.4.1. Gemeinschaften. Um eine Form der Dynamik zu implementieren, die auf der Optimierung der integrierten Informationskomplexität in einem multidimensionalen Netzwerk basiert, kommt den Gemeinschaften im Netzwerk eine wichtige Rolle zu. Dabei handelt es sich um dazwischenliegende Strukturen zwischen den einzelnen Knoten und dem großen Maßstab des gesamten Netzwerks. Gemeinschaften sind ein vertrauter Begriff im Anarchismus: Sie werden manchmal unter dem Gesichtspunkt der Identität konzipiert, insbesondere in Kontexten wie Entkolonialisierung, indigene Kulturen, Organisationen, die auf die Befreiung unterdrückter Bevölkerungsgruppen abzielen. Gemeinschaften können sich auch um gemeinsame Projekte und spezifische Initiativen bilden. All diese sind für das anarchistische Projekt von entscheidender Bedeutung. Wie uns die Intersektionalität in Bezug auf das Verständnis von Repressionsformen gelehrt hat, sind die Begriffe Identität und Gemeinschaft subtil und ihre überlappende Struktur ist wichtig. Im Falle komplexer Netzwerke gibt es in der Regel viele sich überlappende Gemeinschaften, von denen einige in der Konnektivitätsstruktur des Netzwerks leicht zu erkennen sind, während andere schwieriger zu identifizieren, aber für die Bestimmung der Skalierungseigenschaften des Netzwerks von Bedeutung sind. Die Struktur der Gemeinschaften (die Modularitätseigenschaften des Netzwerks) kann als wichtiger Zwischenschritt zwischen dem kleinen Maßstab der einzelnen Knoten und ihrer lokalen Konnektivität und dem großen Maßstab betrachtet werden. Es gibt verschiedene algorithmische Ansätze für die Identifizierung von Gemeinschaften in Netzwerken, [7]. Im Falle der multidimensionalen Netzwerke möchte man zusätzlich verstehen, wie Gemeinschaften auf einer Ebene in Bezug zu Gemeinschaften auf anderen Ebenen stehen (ob die Struktur der Gemeinschaften gleich bleibt oder sich über Ebenen hinweg signifikant ändert) und auch, welche Teile verschiedener Ebenen als Teil derselben Gemeinschaft angesehen werden sollten.

3.4.2. Informationelle Komplexität und Netzwerkgemeinschaften. Ein informatorisches Maß für die Nähe in der Gemeinschaftsstruktur verschiedener Schichten multidimensionaler Netzwerke wird durch die normalisierte gegenseitige Information bereitgestellt. Gegeben sei eine Gemeinschaftsstruktur 𝜎 in der Ebene 𝐿𝛼 und Gemeinschaften 𝜎’in der Ebene 𝐿𝛽, wird die normalisierte gegenseitige Information gegeben durch

(7)              

wo $P\frac{\alpha \beta}{\sigma {\sigma}‘} = N\frac{\alpha \beta}{\sigma {\sigma}‘}/N$ der Anteil Knoten ist, der gleichzeitig zu den Gemeinschaften 𝓸 in Ebene 𝐿𝛼 und 𝜎’ in Ebene 𝐿𝛽 und ähnlich $P\frac{\alpha} {\sigma}$ und $P\frac{\beta} {\sigma‘}$ sind die Knotenanteile in der Gemeinschaft 𝜎 in Ebene 𝐿𝛼, respektive in der Gemeinschaft 𝜎’ in Ebene  𝐿𝛽. Der Numerator von (7) ist eine Kullback-Leibler-Divergenz wie in (5) und misst den Unterschied zwischen der Gemeinschaftsstruktur der beiden verbundenen Ebenen und der, die sich ergibt, wenn beide Schichten unabhängig voneinander wären, während der Nenner sie in Bezug auf die gesamte Shannon Entropie der als unabhängig betrachteten Gemeinschaftsstrukturen der beiden Schichten normalisiert. Hier der Vergleich durch die Kullback-Leibler-Divergenz der gemeinsamen Verteilung von Knotenpunkten in Gemeinschaften über die beiden Schichten, gegeben von  $P\frac{\alpha \beta} {\sigma {\sigma}‘}$mit der für unabhängige Schichten, gegeben durch das Produkt $P\frac{\alpha} {\sigma}P\frac{\beta} {\sigma‘}$erinnert deutlich an integrierte Information (6), und sie tatsächlich in eine integrierte Informationsmessung umgewandelt werden, indem man alle möglichen Gemeinschaftsstrukturen auf den Netzwerkschichten berücksichtigt, so wie man in (6) alle möglichen Unterteilungen eines Systems betrachtet. Wir können dann den weiteren Schritt unternehmen, Entropie durch effektive Komplexität zu ersetzen und die Gemeinschaftsstrukturen über Schichten hinweg im Sinne einer normalisierten relativen effektiven Komplexität gewichten. Dies wird eine Möglichkeit bieten, eine Dynamik komplexer Netzwerke zu definieren, die von kleinen bis zu großen Maßstäben die Optimierung der integrierten informationellen Komplexität implementiert, als

Alternative zur Gewinnoptimierung von Marktmodellen.


3.5. Vorläufige Schlussfolgerung. Märkte werden oft, auch in anarchistischen Umfeldern, als Rechenmodell zur Lösung des Skalenproblems vorgeschlagen. Man kann sich alternative Berechnungsmodelle vorstellen, die sich nicht auf den Gewinn, sondern auf die Optimierung einer Form von integrierter informationeller Komplexität stützen. Diese können eine Alternative zum  Marktsystem bieten, um das Größenproblem in einer anarcho-kommunistischen Perspektive anzugehen. Zweck dieses Textes war es, einige dieser Ideen zu skizzieren, wobei die meisten der damit verbundenen technischen Einzelheiten umgangen werden sollten. Er sollte in keiner Weise als vollständige Darstellung betrachtet werden, da das hier erörterte Problem sehr offen ist und eine viel umfangreichere theoretische Ausarbeitung erfordern würde.


REFERENZEN

1] Allan Antliff,Anarchist Modernism, University of Chicago Press, 2007.

[2] Nihat Ay, Markus Mueller, Arleta Szkola,Effective complexity and its relation to logical depth,IEEE Trans. Inf. Th., Vol. 56/9 (2010) 4593–4607. [arXiv:0810.5663] [3] Charles H. Bennett,Logical Depth and Physical Complexity, in “The Universal Turing Machine– a Half-Century Survey” (Ed. Rolf Herken), Oxford University Press, 1988.

[4] Charles H. Bennett, Peter G ́acs, Ming Li, Paul M.B. Vit ́anyi, Wojciech H. Zurek,Informationdistance, IEEE Transactions on Information Theory, 44(1998) N.4, 1407–1423.

[5] Franco ‘Bifo’ Berardi,The Uprising: On Poetry and Finance, Semiotext(e), 2012.

[6] Franco ‘Bifo’ Berardi,Breathing: Chaos and Poetry, Semiotext(e), 2019.

[7] Ginestra Bianconi,Multilayer Networks, Oxford University Press, 2018.

[8] John E. Bowlt and Olga Matich, eds.,Laboratory of Dreams: The Russian Avant-garde andCultural Experiment, Stanford University Press, 1996

[9] William Davies (Ed.),Economic Science Fictions, Goldsmiths Press, 2019.

[10] Jean-Paul Delahaye,Complexit ́e al ́eatoire et complexit ́e organis ́ee, Editions Quae, 2009.

[11] Murray Gell-Mann,What is Complexity?Complexity, Vol.1 (1995) N.1 [9 pages].

[12] Murray Gell-Mann, Seth Lloyd,Information Measures, Effective Complexity, and Total Infor-mation, Complexity, Vol. 2 (1996) 44–52.

[13] Slava Gerovitch,From Newspeak to Cyberspeak. A History of Soviet Cybernetics, MIT Press,2002.

[14] George Gorelik,Bogdanov’s Tektology, General Systems Theory, and Cybernetics, HemispherePublishing, 1987.

[15] Nina Gourianova,The Aesthetics of Anarchy: Art and Ideology in the Early Russian Avant-Garde, University of California Press, 2012.

[16] Simon Ings,Stalin and the Scientists: A History of Triumph and Tragedy, 1905–1953, OpenRoad & Grove Atlantic, 2017.

[17] Annamma Joy, John F. Sherry, Jr.,Disentangling the paradoxical alliances between art marketand art world, Consumption, Markets & Culture, Vol.6 (2003), N.3, 155–181.

[18] Leonid Vitaliyevich Kantorovich,Mathematical methods of organization and planning of pro-duction, Leningrad State University Press, 1939.

[19] Anatoly Kitov, Aleksei Lyapunov, Sergei Sobolev,The Main Features of Cybernetics, Voprosyfilosofii (Problems of Philosophy), No. 4 (1955), 136–148

[20] Christoph Koch,The feeling of life itself, MIT Press, 2019.

[21] Nikolai Krementsov,A Martian Stranded on Earth: Alexander Bogdanov, Blood Transfusions,and Proletarian Science, The University of Chicago Press, 2011.

[22] David A. Lax,Libermanism and the Kosygin reform, University of Virginia Press, 1991.

[23] Ming Li, Paul Vit ́anyi,An Introduction to Kolmogorov Complexity and Its Applications,Springer, 1997 [New Edition, 2008].

[24] Evsei G. Liberman,Plans, Profits, and Bonuses, Pravda, September 9, 1962.

[25] Marcello Massimini, Giulio Tononi,Sizing up consciousness, Oxford University Press, 2018.

[26] Warren S. McCulloch,A Heterarchy of Values Determines by the Topology of Nervous Nets,Bulletin of Mathematical Biophysics, 7 (1945) 89–93.

[27] Eden Medina,Cybernetic Revolutionaries. Technology and Politics in Allende’s Chile, MITPress, 2011.

[28] Benjamin Peters,How Not to Network a Nation. The Uneasy History of the Soviet Internet,MIT Press, 2016.

[29] Ethan Pollock,Stalin and the Soviet Science Wars, Princeton University Press, 2006.

[30] M. Oizumi, N. Tsuchiya, S. Amari,Unified framework for information integration based oninformation geometry, PNAS, Vol. 113 (2016) N. 51, 14817–14822.20AURORA APOLITO

[31] Jaeweon Shin, Michael Holton Price, David H. Wolpert, Hajime Shimao, Brendan Tracey,Timothy A. Kohler,Scale and information-processing thresholds in Holocene social evolution,Nature Communications (2020) 11:2394https://doi.org/10.1038/s41467-020-16035-9

[32] Higor Y. D. Sigaki, Matjaˇz Perc, Haroldo V. Ribeiro,History of art paintings through the lensof entropy and complexity, PNAS, Vol.115 (2018) N.37, E8585–E8594

[33] G. Tononi G (2008)Consciousness as integrated information: A provisional manifesto, Biol.Bull. 215 (2008) N.3, 216–242.

[34] Anatoly Vershik,L.V.Kantorovich and Linear Programming, arXiv:0707.0491.

[35] Norbert Wiener,Cybernetics, or control and communication in the animal and the machine,MIT Press, 1948