The Return of DRM

Originally written for the nettime-l mailing list which lead to a follow-up discussion, here, and here.

In early 2007, Steve Jobs (of all people!) concluded in his 'Thoughts on Music' that "DRMs haven’t worked, and may never work."1 Soon after, one label after the other started selling music in "unstricted"2 formats, and there was much celebration about the death of DRM. And, there were lots of reasons see things this way: Digital Rights Management Systems were very unpopular with the public. People hated them. Plain and simple. And they were technically unstable, because the encryption, once released to the public, was regularly broken within a few days. And attempts to re-engineer the entire computer operating system to make DRM possible -- Windows Vista -- turned out be be equally unpopular and fraught with internal problems.

Fast-forward three years. Increasingly, our data is up in the clouds. The decentralized architectures for digital production of the 1990s are being phased-out. Google is pushing an operating system (Chrome) were all data is being stored online and virtually nothing remains on the computer. The device which individuals own is being reduced to a relatively dumb terminal. The apple IPad, it seems, is optimized for consumption (and thus hailed as the savior of the old, consumer oriented media industries).

Digital Commons: A dictionary entry

This text, which tries to summarize and situate the concepts and practices of the digital commons, is my contribution to the "Dictionary of the Human Economy". The editors explain in the introduction:

We want to bring to the attention of English readers some currents of economic theory and practice that have flourished in non-Anglophone countries over the last two decades, particularly in France, Brazil, Hispanic America and Scandinavia. To these we have added significanst work by English-speaking authors that was sidelined during neoliberalism‟s heyday and deserves to find a wider audience now. We have brought these strands of new thinking together under the umbrella concept of “the human economy” which refers to an emphasis both on what people do for themselves and on the need to find ways forward that must involve all humanity somehow.


The digital commons comprises informational resources created and shared within voluntary communities of varying size and interests. These resources are typically held de facto as communal, rather than private or public (i.e. state) property. Management of the resource is characteristically oriented towards use within the community, rather than exchange in the market. As a result, separation between producers and consumers is minimal in the digital commons.

3 Aktuelle Podcasts

Zwei Interviews und eine Buchbesprechung

Wie das Web 2.0 «Öffentlichkeit» neu definiert
Mit Youtube, Facebook, Google und Co. verändert sich der Begriff der Öffentlichkeit rasant. Der angesehene Soziologe Manuel Castells hat mit seiner Studie «Communication Power» eine umfassende Analyse der Veränderung der Kommunikation und der medialen Öffentlichkeit durch das Web 2.0 vorgelegt. Der Medientheoretiker Felix Stalder, der selber zu den Netzpionieren gehört, kennt Castells Thesen - und diskutiert mit Barbara Basting darüber. Reflexe vom Fr, 9.4.2010, 28. Min.


“Deep Search” Politik des Suchens jenseits von Google
Die digitale Explosion konfrontiert uns seit Jahren mit einem regelrechten Daten-Tsunami. Die Suchmaschinen sind es, die uns helfen, diesen Tsunami zu beherrschen. Das Verheerende: Was wir über die Welt wissen, erfahren wir fast immer durch Google. Anders gesagt: Was Google nicht findet, existiert für viele Menschen nicht. Mit dieser Situation und ihren Implikationen beschöftigen sich Medientheoretiker, Kulturwissenschaftler, Soziologen und Politologen im Sammelband “Deep Search – Politik des Suchens jenseits von Google”. Philipp Albers hat das Buch gelesen. 26. März 2010, 10 Min.

Wenn man diese Besprechung mit der Renzension der FAZ vergleicht, muss man sich fragen, wo heute wirklich die Qualitätsmedien liegen.

Kritische Strategien zu Kunst und Urheberrecht

Kunstforum_TitelSeit bald 150 Jahren soll das moderne Urheberrecht (UHR) den Umgang mit „Werke[n] der Literatur, Wissenschaft und Kunst“ (§ 1, des aktuellen deutschen Urheberrechtsgesetz) regeln. Rund 100 Jahre zurück reichen die Anfänge der avantgardistischen Subversion bürgerlich-romantischer Konzeptionen von „KünstlerIn“ und „Werk“, die auch dem UHR zugrunde liegen. Durch die Einführung des Prinzips Zufall, die Verwendung bestehender kultureller Artefakte, die Betonung der Rolle des Unterbewussten, oder die direkte Intervention in soziale Prozesse wurde die Vorstellung des autonomen, aus sich selbst schöpfenden Subjekts von allen Seiten untergraben. Dessen ungeachtet propagierte der expandierende Kunstmarkt genau dieses KünstlerInnenbild. Vor diesem Hintergrund ist es fast erstaunlich, dass das Urheberrecht selbst erst sehr spät im Feld der Kunst direkt relevant wurde. Der erste große Gerichtsfall fand 1990-92 statt. Der Photograph Art Rogers verklagte den Künstler Jeff Koons, weil dieser nach Vorlage einer Postkarte von Rogers (Puppies, 1986) eine Skulptur (A String of Puppies, 1988) anfertigen ließ und in der Ausstellung Ushering in Banality präsentiert hatte. Im Kern ging es um die Frage, ob es sich hierbei um eine legitime künstlerische Strategie (die sich auf das US-amerikanische Recht des fair use berufen könne) oder um eine unautorisierte Werkbearbeitung handle. Koons verlor den Prozess sowohl in der ersten als auch in der zweiten Instanz und sah sich bald mit einer Fülle von Klagen konfrontiert, die konzeptuell vergleichbare Werke betrafen.

The Second Index. Search Engines, Personalization and Surveillance (Deep Search)


Google’s well-known mission is “to organize the world’s information”. It is, however, impossible to organize the world’s information without an operating model of the world. Melvil(le) Dewey (1851-1931), working at the height of Western colonial power, could simply take the Victorian world view as the basis for a universal classification system, which, for example, put all “religions other than Christianity” into a single category (no. 290). Such a biased classification scheme, for all its ongoing usefulness in libraries, cannot work in the irreducibly multi-cultural world of global communication. In fact, no uniform classification scheme can work, given the impossibility of agreeing on a single cultural framework through which to define the categories.2 This, in addition to the scaling issues, is the reason why internet directories, as pioneered by Yahoo! and the Open Directory Project (demoz)3, broke down after a short-lived period of success.

Search engines side-step this problem by flexibly reorganizing the index in relation to each query and using the self-referential method of link analysis to construct the ranking of the query list (see Katja Mayer in this volume). This ranking is said to be objective, reflecting the actual topology of the network that emerges unplanned through collective action. Knowing this topology, search engines favor link-rich nodes over link-poor outliers. This objectivity is one of the core elements of search engines, since it both scales well and increases the users’ trust in the system.

Deep Search: Introduction


It’s hard to avoid search engines these days. They have established themselves as essential tools for navigating the dynamic, expanding informational landscape that is the Internet. The Internet’s distributed structure doesn’t allow for any centralized index or catalog; consequently, search engines fulfill a central task of making digital information accessible and thus usable. It’s hard to imagine our lives without their ever-expanding digital dimension; and so it’s increasingly hard to imagine life without search engines. This book looks at the long history of the struggle to impose order on the always-fragile information universe, addresses key social and political issues raised by today’s search engines, and envisions approaches that would break with the current paradigms they impose.

Nachahmung, Transformation und Autorfunktion

Dieser Text ist publiziert in: Kroeger, Odin, Günther Friesinger, Paul Lohberger, Eberhard Ortland und Thomas Ballhausen, Hg. Geistiges Eigentum und Originalität: Zur Politik der Wissens- und Kulturproduktion. Wien: Turia + Kant, 2011, s. 19-32.

Abstract: Employing concepts developed by Gabriel Tarde and Bruno Latour, this article investigates at how a new function of the author is being defined in digital media. What is found to emerge is a practical alternative to the dichotomy between notions of possessive individualism (underlying copyright law) and simplified notions of the death of the author. Here, authorship functions less as a means to establish rigid ownership and control, but serves more as a dynamic system of accountability and reputation building capable of structuring open, collaborative processes.


Vor nunmehr 40 Jahren verkündete Roland Barthes den „Tod des Autors“ (vgl. Barthes, 1969/2000). Was zu diesem Zeitpunkt eine notwendige Abkehr einer durch den Anglo-Amerikanischen „new criticism“ bereits überholten aber in Frankreich immer noch bestimmenden Form der Autor-zentrierten Literaturkritik war, ist bald zu einem Cliché und damit zu einer Sackgasse verkommen. Vor die Wahl gestellt zwischen einer konventionellen Ausprägung der Autorschaft – Cartesianisches Ego übersetzt in bürgerliche Subjektivität untermauert durch das Urheberrecht – und einer diffundierten Autorschaft – aufgegangen im „Murmeln des Diskurses“ wie es Michel Foucault ausdrückte (vgl. 1972/1991) – erfreute sich die erstere in der Praxis einer hartnäckigen Beliebtheit. Dazu trugen auch die Kulturindustrie und der Kunstmarkt bei, deren ideologischen Kern eine übersteigerte Autorschaft ausmacht, die sie aus nachvollziehbarem Eigeninteresse bis heute mit großem Nachdruck propagieren. Die theoretische Dekonstruktion hingegen ging zum einem kaum über die Feststellung der Dezentrierung, Verteilung oder Zerstreuung der Autorschaft hinaus. Zum anderen wurde Praxis des kulturellen Schaffen, die Werke und damit Autoren hervorbringt, lange Zeit nur an den Rändern verändert. Collage, Assemblage und Appropriation als künstlerische Methoden wurden jeweils schnell assimiliert. Explizit anti-autorielle Praktiken blieben politisch und kulturell marginal (vgl. Cramer, 2008), und oftmals verhaftet im widersprüchlichen romantischen Gedanken, wonach das Zurücktreten des Schöpfers zur Steigerung der Erhabenheit des Werkes (und damit, indirekt aber umso wirksamer, des symbolischen Kapitals des Autors) führe.

Deep Search: The Politics of Search Beyond Google

I'm extremely proud that our book on the politics of search engines is out now. I know I'm totally biased, but I really think this is a great collection of essays. And it's available in English as well as in German. Two separate books, each containing original and translated texts.

Konrad Becker/Felix Stalder (eds.). Deep Search. The Politics of Search beyond Google. Studienverlag. Distributed by Transaction Publishers, New Jersey 2009 pp. 214, ISBN 978-3706547956

“This collection gets to the heart of the most important issues concerning our global information ecosystem: Will the ‘soft power’ of one, two, or three corporations exert inordinate yet undetectable influence over what we consider important, beautiful, or true? What are the possibilities for resistance? What are the proper avenues for law, policy, and personal choices? This book walks us through these challenges like no other before it.”

Siva Vaidhyanathan, University of Virginia, author of The Googlization of Everything

Neun Thesen zur Remix-Kultur

Heute ist mein umfangreiches Essay zur Remix-Kultur bei online gegangen. Es berührt viele Themen, die auch die Digitale Allmend behandelt.

Der Remix ist die kulturelle Form der Netzwerkgesellschaft. Felix Stalder beleuchtet in neun Thesen medienhistorische, technologische, politische, rechtliche, kulturtheorische, soziale und ökonomische Dynamiken, die den Aufstieg und die aktuelle Entwicklung des Remix prägen. In den Konflikten, die damit verbunden sind, spiegelt sich die Tiefe des aktuellen gesellschaftlichen Wandels.

Ganzes Essay als PDF (600 kb)

Update (Nov. 2009): Here is a pretty extensive summary of the paper in english.

Commons: A rough definition

Last week, I spent a few days at a small but intense workshop where we were looking at a the political dimensions of various forms of commons. The discussions were open and far ranging. I tried to distill some of these into a definition of commons that tries to take its various dimensions into considerations and separates structural from political issues. Far from perfect....


A commons is a resource held as joint property by a community. Thus, it is distinct from private property (held by natural or legal persons) or public property (held by the state). Typical for commons is that the management of the resource is oriented towards use-value for its members, rather than towards exchange-value within society at large. The separation between producers and consumers is minimized. Thus, commons are also distinct from other forms of collective ownership (such as co-operatives) that produce for the market.

All commons are social institutions, they depend on a community to create and maintain it. A resource that is freely available to all but not managed in a meaningful way by a self-aware community (e.g., the fish in the open sea) are not a commons. Like in all communities, questions of membership (boundaries) and internal decision-making are subject to ongoing, more or less conflictual, negotiations.

It is these questions that define the political quality of the commons, which can serve as defensive mechanism against market encroachment (e.g., in the case of indigenous commons), as a project of exclusion (e.g., in far-right conceptions of the body national) or as the basis of open cooperation (e.g., in the case of Free and Open Source Software).