Eben Moglen

Eben Moglen “Anarchizm triumfujący: wolne oprogramowanie i śmierć praw autorskich “

I. Oprogramowanie jako własność: paradoks teoretyczny

OPROGRAMOWANIE: żadne inne słowo tak w pełni nie określa praktycznych oraz społecznych efektów cyfrowej rewolucji. Oryginalnie był to termin czysto techniczny i definiował te części systemu komputerowego, które mogły być swobodnie modyfikowane, w przeciwieństwie do „hardware’u” (sprzętu, „żelastwa”) wyprodukowanego z komponentów elektronicznych niedających się zmieniać. Na pierwsze oprogramowanie składał się układ kabli i wtyczek na zewnętrznych panelach urządzenia elektronicznego, ale gdy tylko opracowano środki językowe pozwalające na zmienianie zachowania się komputera, termin „oprogramowanie” zaczął określać głównie wyrażenia w mniej lub więcej dającym się zrozumieć języku, który zarówno opisywał jak i kontrolował zachowanie się maszyny [1].

Tak było kiedyś i tak jest obecnie. Technologia bazująca na manipulacji cyfrowo zakodowaną informacją, dominuje socjalnie wśród większości przejawów ludzkiej kultury społeczeństw „rozwiniętych” [2]. Przejście z reprezentacji analogowej do cyfrowej – w wideo, muzyce, druku, telekomunikacji, a nawet w choreografii, kulcie religijnym czy satysfakcji seksualnej – potencjalnie zamienia wszystkie formy ludzkiej aktywności symbolicznej w oprogramowanie, czyli dające się modyfikować instrukcje opisujące i kontrolujące działanie maszyn. Przez konceptualną analogię charakterystyczną dla zachodniej myśli naukowej, podział pomiędzy sprzętem i oprogramowaniem daje się obecnie zaobserwować w świecie naturalnym lub społecznym, stając się nowym sposobem wyrażenia konfliktu idei determinizmu i wolnej woli, natury i wychowania, czy genów i kultury. Nasz „sprzęt” jest genetycznie zakodowany, jest naszą naturą i nas determinuje. Nasze wychowanie to nasze „oprogramowanie”, definiuje nasze zaprogramowanie kulturowe, będąc naszą wolnością wyższego rzędu. I tak dalej, jeśli to kogoś ciekawi [3]. Tym samym „oprogramowanie” staje się użyteczną metaforą dowolnej aktywności symbolicznej, najwyraźniej oddzieloną już od technicznego kontekstu źródła tego słowa, pomimo rodzących się u technicznie zorientowanych ludzi wątpliwości, gdy szafuje się jakimś terminem, pomniejszające pojęciowe znaczenie jego źródła [4].

Jednakże szerokie przyjęcie technologii cyfrowej przez tych, którzy nie rozumieją zasad jej działania, choć najwyraźniej zezwala na szerokie, metaforyczne używanie pojęcia „oprogramowania”, to tak naprawdę nie pozwala nam ignorować faktu, że komputery są już wszędzie pod powierzchnią społecznej powłoki. Przejście z analogu do cyfry jest bardziej znaczące dla struktury stosunków społecznych i prawnych niż bardziej sławne, ale mniej potwierdzone przejście ze statusu urodzenia do swobodnych umów [5]. Złe to wieści dla tych myślicieli prawa, którzy tego nie rozumieją, co tłumaczy, dlaczego spotyka się obecnie tak dużo udawanego zrozumienia. Z drugiej strony, to wielkie przekształcenie jest potencjalnie dobrą wiadomością dla tych, którzy potrafią zamienić ów świeżo odkryty ląd w swoją własność. Jest też powodem, dla którego obecni „posiadacze” oprogramowania tak silne wspierają i propagują ignorancję wśród pozostałych. Na nieszczęście dla nich – z powodów znanych teoretykom prawa, którzy jeszcze nie zrozumieli, jak użyć w tej sferze swej tradycyjnej logiki – ich trik nie zadziała. Tekst ten właśnie objaśnia, dlaczego [6].

Musimy zacząć od rozważenia, co jest techniczną esencją otaczających nas i znanych nam urządzeń w erze „kulturowego oprogramowania”. Odtwarzacz CD jest tu dobrym przykładem. Na jego podstawowym wejściu znajduje się strumień bitów odczytanych z dysku optycznego. Strumień ten opisuje muzykę, jako ciąg pomiarów pobranych 44000 (a ściślej 44100 – przyp. tłumacza) razy w ciągu sekundy, z częstotliwości i amplitudy każdego z dwóch kanałów audio. Na głównym wyjściu odtwarzacza są analogowe sygnały audio [7]. Jak wszystko w świecie cyfrowym, muzyka postrzegana jest przez odtwarzacz jako zwykła informacja numeryczna; konkretny zapis Dziewiątej Symfonii Beethovena zagranej przez Arturo Toscaniniego oraz Orkiestrę Symfoniczną i Chór NBC to (pozbywając się kilku nieznaczących cyfr) 1276749873424, gdy szczególnie przekorne ostatnie nagranie Glenna Goulda wykonującego Wariacje Goldberga to (podobnie skrócone) 767459083268.

Co najdziwniejsze, obie te liczby są „objęte prawem autorskim”. To podobno oznacza, że nie możesz wejść w posiadania kopii tych liczb, gdy zostaną utrwalone na fizycznym medium, chyba że otrzymałeś na to licencję. No i nie możesz zamienić 767459083268 w 2347895697 na użytek swoich przyjaciół (poprawiając w ten sposób śmieszny koncept Gouda w kwestii tempa), nie robiąc jednocześnie „dzieła zależnego”, które także wymaga licencji.

W tym samym czasie, podobny dysk optyczny zawiera inną liczbę, powiedzmy 7537489532. Jest to algorytm programowania liniowego dużych systemów z wieloma ograniczeniami, na przykład użyteczny, jeśli chciałbyś zoptymalizować użycie taboru prowadząc towarowe przewozy kolejowe. Ta liczba (w USA) jest „opatentowana”, co oznacza, że nie możesz użyć 7537489532 dla siebie, czy też w inny sposób „praktykować sztukę” tego patentu w kwestii rozwiązywania problemów programowania liniowego, niezależnie od tego, jak dotarłbyś do tego pomysłu, wliczając w to wymyślenie go samemu, chyba że masz licencję od właściciela tej liczby.

No i mamy 9892454959483. To jest kod źródłowy programu Microsoft Word. Poza tym, że jest on „objęty prawami autorskimi”, to jeszcze jest tajemnicą handlową. Co oznacza, że jeśli zabierzesz go Microsoftowi i dasz komuś innemu, zostaniesz ukarany.

Na koniec, mamy 588832161316. Ta liczba nie robi nic, to jest kwadrat 767354. O ile się orientuję, nikt jeszcze nie posiada jej w jeden z wymienionych powyżej sposobów. Na razie.

W tym momencie musimy zmierzyć się z pierwszym sprzeciwem dotyczącym tego, czego się właśnie dowiedzieliśmy. Pochodzi on od stworzenia zwanego IProbotem (w oryginale IPdroid, od Intellectual Property – własność intelektualna i droid – robot). Robot ten ma wyrafinowany umysł i prowadzi kulturalne życie. Bardzo ceni sobie eleganckie kolacje na naukowych i ministerialnych konferencjach dotyczących Powiązanych z Handlem Aspektów Praw Własności Intelektualnej (TRIPs), czy częstych pojawień się na kanale MSNBC. Chce on, abyś wiedział, że dopuszczam się teraz błędu mieszając reprezentację z samą własnością intelektualną. To nie liczba jest opatentowana, głupolu, ale jedynie algorytm Kamarkara. Liczba może być przedmiotem praw autorskich, ponieważ prawa te dotyczą służącej wyrażaniu właściwości, konkretnej, materialnej reprezentacji pomysłu (w której pewne funkcjonalne cechy mogą się tajemniczo łączyć, pod warunkiem, że nie za mocno), ale nie algorytmu. Gdzie nie da się patentować liczby, da się „nauczanie” o tej liczbie w kontekście sprawiania, aby pociągi jeździły na czas. A liczba reprezentująca kod źródłowy programu Microsoft Word może być tajemnicą handlową, ale gdy odkryjesz tę liczbę samodzielnie (przykładowo dokonując matematycznych przekształceń innych liczb wypuszczonych przez Microsoft, co znane jest jako „inżynieria wsteczna”), to nie zostaniesz ukarany, przynajmniej gdy mieszkasz w pewnych częściach USA.

Robot ten, jak inne roboty, często ma rację. Warunkiem bycia robotem, jest wiedzieć wszystko o czymś konkretnym i nic o wszystkim innym. Interweniując pilnie i szybko, robot zapewnia, że aktualny system własności intelektualnej posiada wiele zawiłych i pomysłowych cech. Zawiłości się łączą, pozwalając profesorom błyszczeć erudycją, Kongresmanom otrzymywać dotacje na kampanie wyborcze, prawnikom nosić ładne garnitury i mokasyny z frędzelkami, a Murdochowi się bogacić. Zawiłości wyewoluowały głównie w czasach przemysłowej dystrybucji informacji, gdy była ona zapisywana w formie analogowej na fizycznych obiektach, których wyprodukowanie, przemieszczenie i sprzedaż wymagało ponoszenia znaczących kosztów. W odniesieniu do informacji cyfrowej, która bez oporów przemieszcza się w sieci i ma zerowe koszty krańcowe, to wszystko wciąż jeszcze działa, przynajmniej dopóki nie przestaniesz mrużyć oczu.

Ale nie o tym chciałem mówić. Chciałem zwrócić uwagę na coś jeszcze: że nasz świat w coraz większym stopniu składa się z wielkich liczb (znanych jako strumienie bitów) i dlatego – z powodów niemających nic wspólnego z wyłaniającymi się własnościami samych liczb – obecny system prawny angażuje się w traktowanie podobnych liczb w radykalnie odmienny sposób. Nikt, po prostu patrząc na liczbę o długości 100 milionów cyfr, nie może powiedzieć, czy jest ona przedmiotem patentu, praw autorskich, czy ochrony tajemnic handlowych, ani, w rzeczy samej, czy ktokolwiek w ogóle ją „posiada”. W ten sposób nasz system prawny – błogosławieni bywamy płynącymi z niego korzyściami, jeśli jesteśmy nauczycielami praw autorskich, Kongresmanami, konsumentami towarów Gucciego, czy samym Wielkim Rupertem – zmuszony jest traktować niedające się rozróżnić rzeczy na różne sposoby.

Jako historyk prawa, którego obchodzi długofalowy rozwój myśli prawnej, muszę stwierdzić, że reżimy prawne, bazujące na ostrych, ale nieprzewidywalnych rozróżnieniach pomiędzy podobnymi obiektami, są mocno niestabilne. Z biegiem czasu rozpadają się, gdyż każdy przypadek zastosowania reguł jest zachętą przynajmniej dla jednej ze stron, by domagać się zmian kwalifikacji. Aby zamiast zaliczenia konkretnego obiektu spornego do idealnej kategorii A, zakwalifikować go do kategorii B. By reguły były bardziej sprzyjające tej stronie, która domaga się takiej zamiany. Taka zabawa – czy maszyna do pisania jest instrumentem muzycznym w kontekście regulacji ruchu pociągów, czy koparka parowa jest pojazdem mechanicznym – jest częstym przedmiotem prawnej pomysłowości. Gdy konwencjonalnie zatwierdzone kategorie prawne wymagają od sędziów rozróżniania rzeczy identycznych, wtedy zabawa jest nieskończenie długa, nieskończenie kosztowna i prawie nieskończenie odrażająca dla postronnego obserwatora [8].

Tym samym, strony mogą wydawać tyle pieniędzy, na ile chcą, na tylu prawodawców i sędziów, na ilu ich stać – a stać nowych „właścicieli” cyfrowego świata na całkiem wielu – ale reguły kupione w ten sposób, w końcu i tak nie będą działać. Prędzej czy później, te paradygmaty się zawalą. Oczywiście, jeśli później oznacza dwie generacje od dziś, to usankcjonowana w międzyczasie dystrybucja bogactwa i władzy może być nieodwracalna w żaden inny sposób, niż przez drastyczne bellum servile biernych widzów przeciwko magnatom medialnym. Ale nie wystarczy sama wiedza, że historia nie jest po stronie Billa Gatesa. Wiemy, że istniejące reguły, które wciąż mają za sobą żar konwencjonalnych wierzeń, nie są już znaczące, i że przewidujemy przyszłość w bardzo ograniczonym sensie. Strony będą reguł swobodnie używać i nadużywać, aż główny nurt „poważanej” konserwatywnej opinii ogłosi ich śmierć, z niepewnym zresztą skutkiem. Ale realnie myślący uczeni już powinni kierować swą uwagę na oczywistą potrzebę wytyczenia nowych dróg myślowych.

Gdy osiągamy ten punkt naszej argumentacji, zazwyczaj borykamy się z innym głównym bohaterem wyedukowanych idiotów: ekonokrasnoludem. Podobnie do IProbota, ekonokrasnolud jest gatunkiem jeża [9], ale gdy robot przedkłada logikę nad doświadczenie, to specjalizacją ekonokrasnoluda jest energetyczny i skoncentrowany, ale całkowicie błędny obraz ludzkiej natury. Według wizji ekonokrasnoluda, każdy istota ludzka jest jednostką posiadającą „bodźce”, które może z mocą wsteczną odkryć, poprzez wyobrażanie sobie stan konta bankowego w różnych momentach. W tym przypadku ekonokrasnolud czuje się zmuszony zaprotestować, że bez reguł, z których szydzę, nie będzie bodźców do tworzenia rzeczy, które owe reguły traktują jak przedmiot własności, czyli bez możliwości wykluczenia praw innych do muzyki, nie będzie muzyki, gdyż nikt nie będzie pewien, że zostanie wynagrodzony za jej stworzenie.

Muzyka jednak naprawdę nie jest naszym tematem; oprogramowanie, o które mi chodzi w tym momencie, jest starego rodzaju: programy komputerowe. Ale skoro przekonany on jest do zmierzenia się przynajmniej powierzchownie z tematem, oraz, jak zauważyliśmy, nie da się już naprawdę dokonać rozróżnienia pomiędzy programami komputerowymi a wykonaniami muzycznymi, to należy mu powiedzieć kilka słów. Przynajmniej będziemy mieć satysfakcję z włączenia się do dyskusji ad pygmeam. Z mego doświadczenia wynika, że gdy ekonokrasnolud staje się bogaty, zaczyna chadzać do opery. Niezależnie jednak, jak często słyszy Don Govanniego, nie wpada na myśl, że los Mozarta, posiłkując się jego własną logiką, powinien skutecznie zniechęcić Beethovena, oraz że mamy Czarodziejski Flet, mimo że Mozart dobrze wiedział, że nie otrzyma zapłaty. Faktycznie zaś, Czarodziejski Flet, Pasja w.g. Świętego Mateusza i motety żonobójcy Carlo Gesualdo są częścią sięgającej wieków tradycji wolnego oprogramowania, w sensie ogólniejszym, do czego ekonokrasnolud nigdy się nie przyzna.

Głównym problemem krasnoluda jest to, że „bodźce” to jedynie metafora, i jako metafora opisująca ludzką działalność kreatywną, raczej kiepska. Choć już wcześniej to stwierdziłem [10], lepsza metafora narodziła się w dniu, w którym Michał Faraday po raz pierwszy zauważył, co dzieje się, gdy owinie się spiralę z drutu wokół magnesu, którym się następnie zakręci. Przez drut płynie prąd, ale nie pytamy przecież jaki bodziec mają elektrony, aby opuścić swe pielesze. Mówimy, że prąd jest rezultatem manifestującej się właściwości systemu, którą nazywamy indukcją. Pytanie, które zadajemy, to: „jaki jest opór drutu?” Tak więc, Moglenowski Metaforyczny Wniosek z Prawa Faradaya mówi, że jeśli owinie się internetem każdą osobę na planecie i zakręci się planetą, to przez sieć popłynie oprogramowanie. Taka jest manifestująca się właściwość połączonych ludzkich umysłów, że tworzą one rzeczy dla wzajemniej przyjemności, i aby pokonać nieprzyjemne uczucie zbytniej samotności. Jedyne pytanie, które trzeba zadać, to jaki jest opór sieci? Moglenowski Metaforyczny Wniosek z Prawa Ohma stwierdza, że opór sieci jest wprost proporcjonalny do siły pola systemu „własności intelektualnej”. Właściwą więc odpowiedzią dla ekonokrasnoluda jest: opieraj się oporowi.

Oczywiście, wszystko to jest fajne w teorii. „Opieraj się oporowi” brzmi dobrze, ale mielibyśmy poważne problemy, teoria teorią, jeśli krasnolud miałby rację i w przypadku, gdy nie pozwolilibyśmy ludziom posiadać oprogramowania, znaleźlibyśmy się w sytuacji niedostatecznej jego produkcji. Ale krasnoludy i roboty to formaliści odmiennego rodzaju i przewagą rzeczywistości jest, że jeśli zaczniesz od faktów, to fakty są po twojej stronie. Okazuje się, że traktowanie oprogramowania jako własności, tworzy złe oprogramowanie.

II. Oprogramowanie jako własność: problem praktyczny

Zrozumienie, dlaczego uczynienie z oprogramowania przedmiotu własności produkuje złe oprogramowanie, wymaga wprowadzenia do historii sztuki. Faktycznie, lepiej zacznijmy od samego słowa „sztuka”. Programowanie komputerów łączy precyzyjne rozumowanie z pomysłowością literacką.

Na pierwszy rzut oka, kod źródłowy wydaje się być nieliteracką formą twórczości [11]. Podstawowym dezyderatem programu komputerowego jest to, że działa, inaczej mówiąc: wykonuje operacje zgodne ze specyfikacją formalnie opisującą, co znajduje się na wyjściu w zależności od wejścia. Na tym poziomie generalizowania, funkcjonalna treść programu jest wszystkim, co można zaobserwować.

Jednakże działające programy komputerowe istnieją jako części systemów komputerowych, które są współdziałającymi zbiorami sprzętu, oprogramowania i ludzkich istot. Ludzkie składniki systemu komputerowego to nie tylko użytkownicy, ale także (potencjalnie inne) osoby, które konserwują i udoskonalają system. Kod źródłowy, za pośrednictwem kompilatora, który produkuje kod maszynowy, nie tylko komunikuje się z komputerem, który wykonuje program, ale także z innymi programistami.

Funkcja kodu źródłowego w relacji do innych istot ludzkich nie jest powszechnie pojmowana przez nie-programistów, którzy mają tendencję myślenia o programach komputerowych jako rzeczach niepojętych. Byliby bardzo zaskoczeni, gdyby dowiedzieli się, że większość informacji zawartej w programach jest, z punktu widzenia kompilatora czy innego procesora języka, „komentarzem”, czyli materiałem niepełniącym konkretnej funkcji. Oczywiście komentarze są adresowane do tych, którzy mogą potrzebować poprawić błąd, czy zmienić albo rozszerzyć działanie programu. W większości programów komputerowych znacznie więcej miejsca zużywa się na powiedzenie co program robi, niż na pokazanie komputerowi jak to zrobić.

Projektowanie języków programowania zawsze dokonywało się przy podwójnym wymaganiu kompletnej specyfikacji: do wykonania przez maszynę oraz informacyjnej opisowości dla ludzkich czytelników. W projektowania języków można zidentyfikować trzy podstawowe strategie podejścia do tego podwójnego celu. Pierwsza, początkowo używana ze względu na konstruowanie języków specyficznych dla konkretnych produktów sprzętowych, ogólnie znanych jako języki asemblera, które w zasadzie oddzielały ludzką i maszynową sferę wyrażania treści programu. Instrukcje asemblera były bardzo bliskie instrukcjom maszynowym, ogólnie rzecz biorąc, jeden wiersz programu asemblera odpowiadał jednej instrukcji w docelowym kodzie maszyny. Programista kontroluje działanie maszyny na najbardziej specyficznym poziomie, i (jeśli jest porządny) dodaje komentarz przy każdej instrukcji maszynowej, robiąc przerwę co kilkaset instrukcji, aby stworzyć „komentarz blokowy”, który dostarcza opisu strategii programu, czy dokumentuje główne struktury danych, którymi program manipuluje.

Drugie podejście, w charakterystyczny sposób ilustrowane językiem COBOL (skrót od „Common Business-Oriented Language”), to tworzenie programu, który sam wygląda jak zestaw poleceń języka naturalnego, zapisanych w zawiłym, ale teoretycznie dającym się odczytać stylu. Przykładowy wiersz w COBOLu mógł stwierdzać „MULTIPLY PRICE TIMES QUANTITY GIVING EXPANSION” („POMNÓŻ CENĘ PRZEZ ILOŚĆ OTRZYMUJĄC SUMĘ”). Początkowo, gdy Pentagon i eksperci przemysłowi rozpoczęli wspólnie projektowanie COBOLa na początku lat 60., wydawało się to obiecującym podejściem. Programy w COBOLu wydawały się samo-dokumentujące, pozwalając zarówno współpracować zespołom nad tworzeniem dużych programów, jak i szkolić programistów, którzy będąc wyspecjalizowanymi pracownikami, nie musieliby rozumieć maszyny tak dogłębnie, jak muszą to robić piszący programy maszynowe. Jednak poziom ogólności, w jakim te programy dokumentowały się same, został źle wybrany. Sprowadzone do formuł i skompresowane szczegóły operacji, na przykład „suma = cena * ilość”, były lepiej przystosowane nawet do aplikacji biznesowych i finansowych, gdzie zarówno piszący, jak i czytający programy, byli przyzwyczajeni do wyrażeń matematycznych, a proces opisywania zarówno struktur danych i większych operacji programu nie został wyeliminowany przez stylistyczną rozwlekłość języka, w którym był specyfikowane te szczegóły.

W skutek tego, projektanci języków w późnych latach 60. zaczęli eksperymentować z formami wyrażania, które w bardziej subtelny sposób mieszały detale operacji i niefunkcjonalną informację niezbędną do modyfikacji i poprawek. Niektórzy projektanci wybrali ścieżkę bardzo symbolicznych i skompresowanych języków, w których programista manipulował danymi w sposób abstrakcyjny, a więc „A x B” mogło oznaczać mnożenie dwóch liczb całkowitych, dwóch liczb zespolonych, dwóch sporych tablic, czy dowolnych danych zdolnych do realizacji operacji zwanej „mnożeniem”, a komputer mógł decydować o kontekście dla zmiennych „A” i „B” w momencie wykonania [12]. Ponieważ podejście to dawało ekstremalnie zwięzłe programy, myślano, że uproszczono problem tworzenia kodu bardziej zrozumiałego dla tych, którzy później będą chcieli go modyfikować czy poprawiać. Poprzez ukrycie technicznych szczegółów operacji komputera i uwydatnienie algorytmu, można było wymyślić programy, które były lepsze niż angielski, czy inny język naturalny, w opisywaniu procesów etapowych. Komentarze nie tylko byłyby zbędne, ale rozpraszające, jak metafory używane do przekazywania koncepcji matematycznych bardziej je wikłają niż wyjaśniają.

Jak stworzyliśmy mikromózgowy bałagan

Tak więc, historia języków programowania bezpośrednio odzwierciedla potrzebę poszukiwania takich form porozumiewania się człowieka z maszyną, które również są efektywne w przekazywaniu skomplikowanych koncepcji ludzkim czytelnikom. „Zdolność wyrażania” stała się właściwością języków programowania, nie dlatego że ułatwiała obliczenia, ale dlatego że ułatwiała kreatywną współpracę i konserwację coraz bardziej skomplikowanych systemów programistycznych.

Pierwsze wrażenie wydaje się usprawiedliwiać zastosowanie tradycyjnego myślenia o prawach autorskich, do powstałych w ten sposób dzieł. Chociaż w znaczącym stopniu programy zawierały elementy „funkcjonalne”, zawierały też „służące wyrażaniu” cechy o podstawowym znaczeniu. Doktryna praw autorskich uznała połączenie funkcjonalności ze zdolnością wyrażania, jako charakterystyczny element wielu dzieł podlegającym prawom autorskim. „Kod źródłowy” zawierający zarówno instrukcje maszynowe niezbędne do wykonania funkcji, jak i znaczące „komentarze” przeznaczone dla ludzkich czytelników, był dobrym kandydatem do objęcia prawami autorskimi.

To prawda, jak długo przyjmuje się, że ten przekazujący treści komponent oprogramowania jest obecny wyłącznie w celu ułatwienia tworzenia „dzieł zależnych”. Gdyby te przekazujące treści elementy programów nie istniały w celu ułatwiania modyfikacji, to byłby całkowicie nadobowiązkowe, a kod źródłowy byłby przedmiotem praw autorskich nie bardziej niż kod maszynowy, efekt pracy procesora językowego, pobawiony wszystkiego, poza cechami funkcjonalnymi.

Stan przemysłu komputerowego w ciągu lat 60. i 70., gdy ustalano normy bazowe dla wyrafinowanego oprogramowania komputerowego, ukrywał napięcie wynikające z tej sytuacji. W tym okresie, to sprzęt był drogi. Komputery były coraz większymi i bardziej skomplikowanymi zbiorami maszyn, a przemysł projektowania i budowania takich zestawów maszyn dla zastosowań ogólnych był zdominowany – żeby nie powiedzieć: zmonopolizowany – przez jedną firmę. IBM rozdawał swoje oprogramowanie. Na wszelkie wypadek, był właścicielem programów, które pisali jego pracownicy i obejmował prawami autorskimi kod źródłowy. Jednocześnie dystrybuował programy – wraz z kodem źródłowym – pośród swoich klientów bez dodatkowych opłat i zachęcał ich do tworzenia i dzielenia się udoskonaleniami czy adaptacjami programów rozpowszechnianych właśnie w taki sposób. Dla dominującego producenta sprzętu, ta strategia miała sens: lepsze oprogramowanie pozwalało sprzedawać więcej komputerów, a tu tkwiło źródło zysków w tym interesie.

Komputery w tym okresie miały tendencje do gromadzenia się w obrębie konkretnych organizacji, ale nie komunikowania się zbyt szeroko pomiędzy sobą. Potrzebne do działania oprogramowanie nie było rozpowszechniane przez sieć, ale na szpulach taśmy magnetycznej. Ten system dystrybucji miał tendencję do centralizacji, i choć klienci IBM mogli swobodnie dokonywać modyfikacji i udoskonaleń w programach, te zmiany najpierw były dzielone z IBM, który rozważał, czy i w jaki sposób wdrożyć je w centralnie tworzonych i rozpowszechnianych wersjach oprogramowania. Tym samym, najlepsze oprogramowanie komputerowe na świecie było wolne na dwa sposoby: otrzymanie go nic nie kosztowało, a warunki, na jakich go dostarczano, zarówno pozwalały, jak i zachęcały do eksperymentowania, zmieniania i udoskonalania [13]. Oprogramowanie, o którym mowa, będące własnością IBM w świetle dominującego prawa autorskiego, z pewnością ustanawiało pewne teoretyczne ograniczenia użytkowników w rozpowszechnianiu ich modyfikacji i adaptacji, ale w praktyce oprogramowanie komputerów mainframe było współtworzone przez dominującego producenta sprzętu i jego technicznie wyrafinowanych użytkowników, używając środków dystrybucyjnych producenta do rozpowszechniania udoskonaleń w społeczności użytkowników. Prawo do wykluczania innych, jedno z najbardziej istotnych „kijów w pakiecie” praw własności (ulubiona wizja Sądu Najwyższego USA), było praktycznie nieistotne, a nawet niepożądane w sercu przemysłu oprogramowania [14].

Po 1980 roku wszystko stało się inne. Świat sprzętu mainframe w ciągu 10 lat zrobił miejsce światu zwykłych towarów – komputerów PC. Także, jako przypadkowy efekt rozwoju przemysłowego, najważniejszy element oprogramowania działający na zwykłym PC – system operacyjny – stał się jedynym ważnym produktem firmy, która nie produkowała sprzętu. Podstawowe oprogramowanie wysokiej jakości przestało już być częścią strategii różnicowania produktów wśród producentów sprzętu. Zamiast tego, firma z przytłaczającym udziałem w rynku, z typowym dla prawie-monopolistów brakiem zainteresowania w popieraniu różnorodności, ustaliła nowe zwyczaje przemysłu oprogramowania. W tym kontekście niezwykle ważne stało się prawo do wykluczania innych z udziału w formowaniu produktu. Siła Microsoftu na rynku, w całości spoczywała na jego własności do kodu źródłowego Windows.

Dla Microsoftu, owi twórcy „dzieł zależnych”, znanych inaczej jako poprawki i udoskonalenia, zagrażali głównym aktywom jego interesu. I jak wykazały kolejne prawne dochodzenia, strategią biznesową Microsoftu było wyszukiwanie innowacyjnych pomysłów gdzie indziej na rynku oprogramowania, wykupywanie ich, i albo zduszanie, albo włączanie do własnego produktu. Zachowywanie kontroli nad podstawowymi funkcjami komputerów, które były produkowane, sprzedawane, posiadane i używane przez innych, reprezentowało gruntowną i dochodową siłę wpływającą na rozwój kultury [15]; prawo do wykluczania powróciło na centralne miejsce w koncepcie oprogramowania jako własności.

Rezultaty, przynajmniej jeśli chodzi o jakość oprogramowania, były katastrofalne. Monopolem była bogata i potężna korporacja, która zatrudniała dużą ilość programistów, ale nie mogła pozwolić sobie na dostateczną ilość testerów, projektantów i twórców wymaganych do stworzenia elastycznego, odpornego i technicznie nowatorskiego oprogramowania, odpowiedniego do szerokiego spektrum warunków, w których operowały coraz bardziej wszędobylskie komputery. Jej główna strategia rynkowa opierała się na projektowaniu oprogramowania dla najmniej technicznie obytych użytkowników, oraz na używaniu „strachu, niepewności i wątpliwości” („fear, uncertainty, and doubt”, w kręgach Microsoftu zwana „FUD”) do odstraszania bardziej techniczne wyrafinowanych użytkowników od produktów konkurencji, której długofalowa zdolność przetrwania była zawsze wątpliwa w obliczu rynkowej siły Microsoftu.

Nie można powstrzymać nieuchronnego pogarszania się jakości bez stałego współdziałania pomiędzy użytkownikami zdolnymi do tworzenia poprawek i udoskonaleń, a producentem systemu operacyjnego. Ponieważ rewolucja komputerów osobistych zwiększyła liczbę użytkowników wykładniczo, niemalże każdy, kto miał do czynienia z nowopowstałymi systemami, nie miał ich z czym porównać. Nie znając standardów stabilności, niezawodności, łatwej konserwacji i efektywności, które wcześniej zostały zdefiniowane w świecie komputerów mainframe, trudno było spodziewać się, by użytkownicy komputerów osobistych rozumieli, jak relatywnie źle funkcjonowało oprogramowanie monopolu. Gdy moc i zdolności komputerów osobistych gwałtownie się powiększały, defekty oprogramowania były mniej zauważalnie wśród ogólnego wzrostu produktywności. Zwykli użytkownicy, z których ponad połowa bała się techniki, której prawie kompletnie nie rozumiała, nawet mile widziała wady oprogramowania. W gospodarce przechodzącej tajemnicze przemiany, z jednoczesną destabilizacją milionów karier zawodowych, w przewrotny sposób uspakajające było to, że żaden komputer osobisty nie wydawał się zdolny do pracy bez zawieszenia się dłużej niż przez kilka kolejnych godzin. Mimo że utrata postępów w pracy, gdy następowała niepotrzebna awaria, była frustrująca, to ewidentna zawodność komputerów dawała faktyczne ukojenie [16].

To nie było konieczne. Niska jakość oprogramowania dla komputerów osobistych może zostać poprawiona przez włączenie użytkowników bezpośrednio w zasadniczo ewolucyjny proces projektowania i implementacji oprogramowania. Sposób Lamarcka, w którym udoskonalenia mogą być robione wszędzie, przez każdego i są dostępne każdemu, mógłby zlikwidować niedobory, przywracając świat pecetów do stabilności i niezawodności oprogramowania powstającego w niby-własnościowym środowisku ery komputerów mainframe. Lecz model biznesowy Microsoftu uniemożliwił lamarckiańską dostępność udoskonaleń oprogramowania. Doktryna praw autorskich, ogólnie, i gdy dotyczy oprogramowania w szczególności, skłania świat ku kreacjonizmowi, ale w tym przypadku problemem było to, że BillG, Stwórca, daleki był od nieomylności i, tak naprawdę, nawet się nie starał.

Aby ironia była jeszcze ostrzejsza, rozrost sieci sprawił, że bardziej praktyczną stała się alternatywa nie-własnościowa. To, co zarówno publikacje naukowe, jak i popularne traktują jako rzecz (Internet), właściwie jest stanem społecznym: sytuacją, gdzie każdy w społeczeństwie sieciowym jest bezpośrednio połączony z każdym innym [17]. Globalne połączenie sieci wyeliminowało wąskie gardło, które wymusiło w czasach komputerów mainframe na scentralizowanym producencie oprogramowania zracjonalizowanie i dystrybucję rezultatów pomysłowości jednostek.

Tak więc, jako jedna z drobnych ironii historycznych, globalny triumf złego oprogramowania ery PC został ograniczony przez niespodziewaną kombinację sił: społeczną przemianę zainicjowaną przez powstanie sieci, dawno zapomnianą europejską teorię ekonomii politycznej, oraz grupę programistów rozrzuconych po świecie, zmobilizowanych przez jeden pomysł.

Oprogramowanie chce być wolne, czyli jak przestaliśmy się martwić i pokochaliśmy bombę.

Dużo wcześniej niż sieć sieci stała się praktyczną rzeczywistością, nawet wcześniej, niż do tego aspirowała, istniała chęć, by komputery działały na bazie oprogramowania swobodnie dostępnego każdemu. Zaczęła się jako reakcja na własnościowe oprogramowanie ery komputerów mainframe, co wymaga kolejnej małej dygresji historycznej.

Mimo że IBM był jednym z największym sprzedawców komputerów mainframe ogólnego zastosowania tamtej ery, nie był wcale największym projektantem i producentem takiego sprzętu. Monopol telekomunikacyjny, American Telephone & Telegraph (AT&T) był naprawdę większy od IBM, ale zużywał własne produkty na swoje potrzeby. A w sławnym oddziale rozwojowym telefonicznego monopolisty, Bell Labs, w końcu lat 60., rozwój wcześniej opisywanych języków programowania przyczynił się do narodzin systemu operacyjnego zwanego Unixem.

Pomysłem na Unix było stworzenie jednego, skalowalnego systemu operacyjnego, który zaistniałby na wszystkich komputerach, od małych do dużych, które monopolista telefoniczny produkował dla siebie. Osiągnięcie tego celu oznaczało napisanie systemu nie w języku maszynowym, nie w języku asemblera, którego formuły językowe były nierozłączne z konkretnymi rozwiązaniami sprzętowymi, ale w języku ogólniejszym, pozwalającym na swobodniejsze wyrażanie się. Wybrany został taki, który też był wynalazkiem Bell Labs, zwany „C” [18]. Język C stał się powszechnym, nawet dominującym, językiem do realizacji wielu zadań programistycznych, i w końcu lat 70. system operacyjny Unix napisany w tym języku został przeniesiony na komputery wyprodukowane przez wielu wytwórców, bazujące na różnych rozwiązaniach.

AT&T dystrybuował Unixa szeroko, a z powodu samego sposobu zaprojektowania systemu, musiano rozpowszechniać go jako kod źródłowy w języku C. AT&T pozostawał wciąż właścicielem kodu źródłowego i zmuszał użytkowników do kupna licencji, która zabraniała rozpowszechniania i tworzenia dzieł zależnych. Duże centra obliczeniowe, czy przemysłowe, czy akademickie, mogły sobie pozwolić na kupno takich licencji, ale już nie indywidualne osoby, a ograniczenia licencji zapobiegały możliwości, by społeczności programistów, które używały Unixa, mogły go udoskonalać w sposób ewolucyjny zamiast w epizodyczny. A skoro programiści na całym świecie zaczęli dążyć do i spodziewać się rewolucji komputerów osobistych, „niewolny” status Unixa stał się źródłem obaw.

Pomiędzy 1981 a 1984 rokiem, jeden człowiek nakreślił krucjatę, która miała zmienić tę sytuację. Richard M. Stallman, wtedy pracownik Laboratorium Sztucznej Inteligencji MIT, spłodził projekt opartego o współpracę, niezależnego przeprojektowania i implementacji systemu operacyjnego, który byłby naprawdę wolnym oprogramowaniem. Według słów Stallmana, wolne oprogramowanie to kwestia wolności, a nie ceny. Każdy może dowolnie modyfikować i rozpowszechniać takie oprogramowanie, czy sprzedawać je, podlegając jedynie ograniczeniu, że nie będzie próbował ograniczać praw tym, którym go przekaże. W ten sposób oprogramowanie mogło stać się samoorganizującym się projektem, w którym żadne innowacje nie zaginęłyby w skutek egzekwowania czyichś praw własności. Stallman zadecydował, że system ten nazwie GNU, co oznaczało „GNU’s Not Unix” (to był pierwszy przykład gustowania w rekursywnych akronimach, które charakteryzowało od tego momentu wolne oprogramowanie). Pomimo złych przeczuć w stosunku do fundamentalnych podstaw konstrukcji Unixa, jak i do warunków jego dystrybucji, GNU mało na celu wykorzystanie szeroko dostępnych, choć „niewolnych” dystrybucji kodu źródłowego Unixa. Stallman zapoczątkował Projekt GNU pisząc komponenty potencjalnego system operacyjnego, które zaplanowano tak, aby mogły bez zmian działać w istniejących systemach Unix. Dzięki temu, rozwój narzędzi GNU mógł odbywać się bezpośrednio w środowisku uniwersytetów i innych, zawansowanych centrów obliczeniowych na całym świecie.

Skala takiego projektu była ogromna. W jakiś sposób trzeba było znaleźć programistów-ochotników, zorganizować ich i wysłać do budowania wszystkich instrumentów, które byłoby niezbędne do stworzenia finalnej konstrukcji. Sam Stallman był głównym autorem kilku fundamentalnych narzędzi. Inne zostały przekazane przez małe lub większe grupy programistów, przypisane do projektu Stallmana i bezpośrednio rozpowszechniane. Kilka miejsc w rozwijającej się sieci stało się archiwami kodu źródłowego komponentów GNU, a w ciągu lat 80. narzędzia GNU zdobyły uznanie i akceptację wśród użytkowników Unixa na całym świecie. Stabilność, niezawodność i łatwa konserwacja narzędzi GNU stała się ich marką, a znakomite zdolności Stallmana w dziedzinie projektowania wciąż wyprzedzały i stawiały nowe cele w tym ewoluującym procesie. Nagrodzenie Stallmana przez MacArthur Fellowship w 1990 roku było należnym uznaniem jego konceptualnych i technicznych innowacji oraz ich konsekwencji społecznych.

Project GNU oraz Free Software Foundation (Fundacja Wolnego Oprogramowania), która narodziła się z niego w 1985 roku, nie były jedynymi źródłami pomysłów na wolne oprogramowanie. W środowiskach akademickich, głównie w otoczeniu Unixa, zaczęły rozwijać się różne formy licencjonowania dzieł objętych prawami autorskimi, skonstruowane tak, aby rozwijać wolne albo częściowo wolne oprogramowanie. Uniwersytet Kalifornijski w Berkeley rozpoczął projektowanie i implementację kolejnej wersji Unixa, przeznaczonej do darmowej dystrybucji wśród społeczności akademickiej. BSD Unix, jak go nazwano, traktował Unixa AT&T jako standard projektowy. Choć jego kod został szeroko rozpowszechniony i stał się rezerwuarem narzędzi i rozwiązań, to warunki licencji ograniczały zasięg zastosowań, a eliminacja prywatnego kodu zależnego od konkretnego sprzętu oznaczała, że nikt nie mógł stworzyć działającego systemu operacyjnego BSD. Inne prace uniwersyteckie owocowały także niby-wolnym oprogramowaniem: na przykład graficzny interfejs użytkownika (GUI) dla systemów Unix zwany X Windows powstał w MIT i był rozpowszechniany z kodem źródłowym, pozwalającym na swobodne modyfikowanie. A w latach 1989-1990, student informatyki Uniwersytetu w Helsinkach, Linus Torvalds, zapoczątkował projekt, który zamknął obwód i doprowadził zasilanie dla wizji wolnego oprogramowania.

To, czego dokonał Torvalds, to przystosowanie narzędzia służącego do nauczania informatyki do wykorzystania w prawdziwym życiu. Kernel MINIXA autorstwa Andrew Tannenbauma [19] był bazą kursów dotyczących systemów operacyjnych, będąc przykładem podstawowych rozwiązań zasadniczych problemów. Powoli, na początku nie mając takiego zamiaru, Linus zaczął przekształcać kernel MINIXA w kernel Unixa dla procesorów x86 Intela, silników napędzających pecety. W czasie, gdy Linus rozpoczął prace nad kernelem, który nazwał Linux, zdał sobie sprawę, że najlepszym sposobem na sprawienie, aby jego projekt zaczął naprawdę działać, było zmodyfikowanie go tak, aby istniejące komponenty GNU były z nim zgodne.

Rezultatem pracy Torvaldsa było opublikowanie w sieci, w 1991 roku, zgrubnego, działającego, wolnego oprogramowania kodu kernela systemu uniksowego dla komputerów PC, w pełni zgodnego i zaprojektowanego do współdziałania z dużym pakietem komponentów systemowych wysokiej jakości, stworzonych przez Project GNU Stallmana i rozpowszechnianych przez Free Software Foundation. Z powodu, że Torvalds zdecydował się rozpowszechniać kernel Linuxa na bazie licencji General Public Licence (GPL, Powszechnej Licencji Publicznej) opracowanej przez Free Software Foundation, o której więcej poniżej, setki, a potem tysiące programistów z całego świata, którzy zdecydowali się przeznaczyć swoją pracę na rzecz dalszego rozwoju kernela, mogło być pewnymi, że ich wysiłki zaowocują trwale wolnym oprogramowaniem, którego nikt nie zamieni w produkt własnościowy. Każdy wiedział, że wszyscy inni będą mogli testować, ulepszać i rozpowszechniać jego udoskonalenia. Torvalds swobodnie akceptował wkład innych i, w genialnie efektywny sposób, kierował ogółem, nie tłumiąc entuzjazmu. Rozwój kernela Linuxa dowiódł, że to Internet sprawił, iż możliwa jest konsolidacja dużych zespołów programistów, znacznie większych niż mógłby sobie na to pozwolić dowolny komercyjny producent, połączonych niemalże bez hierarchii w kreowaniu projektu, który ostatecznie zawiera ponad milion wierszy kodu – skala współpracy rozrzuconych geograficzne, nieopłacanych ochotników niewyobrażalna wcześniej w ludzkiej historii [20].

W 1994 roku Linux osiągnął wersję 1.0, która była użytecznym, finalnym kernelem. Poziom 2.0 został osiągnięty w 1996, a w roku 1998, z kernelem w wersji 2.2.0 dostępnym nie tylko dla procesorów x86, ale także dla szeregu innych architektur maszynowych, GNU/Linux – połączenie kernela Linuxa i znacznie obszerniejszej masy komponentów stworzonych przez Project GNU – i Windows NT były jedynymi systemami operacyjnymi na świecie zwiększającymi swój udział w rynku. Wewnętrzna ocena Microsoftu dotycząca tej sytuacji, która wyciekła w październiku 1998 roku, a później została potwierdzona przez firmę jako prawdziwa, kończyła się stwierdzeniem, że „Linux reprezentuje najlepszy z możliwych wariant Unixa, któremu ufa się w krytycznych aplikacjach, oraz, z powodu otwartego kodu źródłowego – posiada długofalową wiarygodność, którą przewyższa wiele innych, konkurujących systemów operacyjnych” [21]. Systemy GNU/Linux są obecnie używane na całym świecie, obsługując wszystko, począwszy od serwerów WWW w głównych serwisach handlu elektronicznego, przez improwizowane klastery superkomputerów, aż po sieciowe infrastruktury centrów bankowych. GNU/Linux znajduje się na promie kosmicznym, a nawet obsługuje ukryte za kulisami komputery w Microsofcie. Przemysłowe oceny porównywalnej niezawodności systemów unixowych wielokrotnie wykazały, że Linux jest najbardziej stabilnym i niezawodnym kernelem unixowym, niezawodnością ustępując jedynie samym narzędziom GNU. GNU/Linux nie tylko funkcjonuje w testach lepiej od komercyjnych, własnościowych wersji Unixa na komputery PC, ale posiada renomę z powodu swojej zdolności do ciągłej pracy w systemach dużego obciążenia i ruchu, bez zawieszania się, bez przerw i bez problemów, przez całe miesiące.

Inne elementy ruchu wolnego oprogramowania odnosiły podobne sukcesy. Apache, bez wątpienia wiodący program serwerów WWW, jest także wolnym oprogramowaniem, podobnie jak Perl, język programowania, który jest lingua franca programistów budujących wyrafinowane witryny WWW. Netscape Communications rozpowszechnia swoją przeglądarkę Netscape Communicator 5.0 jako wolne oprogramowanie na licencji będącej bliskim wariantem GPL. Główni producenci pecetów, wliczając w to IBM, ogłosili zamiary, albo już prowadzą dystrybucję GNU/Linuxa jako opcję dla klienta, w swych najbardziej zaawansowanych komputerach o przeznaczeniu na serwery plików lub WWW. Samba, program pozwalający komputerom na bazie GNU/Linuxa działać podobnie do serwerów plików z Windows NT, jest używany na całym świecie jako alternatywa dla serwerów Windows NT, będąc atrakcyjną kosztowo konkurencją dla Microsoftu na opanowanym przez niego rynku. Z powodu standardów jakości oprogramowania, które były uznawane w przemyśle przez dekady – których nieustające znaczenie będzie dla ciebie oczywiste, gdy twój PC z Windows znów się zawiesi – wieści z końca wieku są jednoznaczne. Najbardziej dochodowa i potężna korporacja na świecie zajmuje odległe, drugie miejsce, po wykluczeniu z wyścigu wszystkich, za wyjątkiem zwycięzcy. Chęć przywłaszczania połączona z kapitalistycznym wigorem zniszczyła znaczącą konkurencję komercyjną, ale jeśli chodzi o robienie dobrego oprogramowania, wygrał anarchizm.

III. Anarchizm jako sposób produkcji

To ładna historyjka, i jeśli tylko IProbot oraz ekonokrasnolud nie byliby zaślepieni teorią, widzieliby, że to musiało się stać. Choć niektórzy z nas pracowali na to i przewidywali to od lat, to teoretyczne konsekwencje są dla uspokajającego sposobu myślenia naszych krasnoludów i robotów tak wywrotowe, że trudno ich winić, że nie chcieli zauważyć nadchodzących zmian. Fakty dowiodły, że coś jest nie tak z ich metaforą „bodźców”, wspierającą konwencjonalne rozumowanie w kwestii praw autorskich [22]. Ale zrobiły też coś więcej. Dały możliwość pierwszego spojrzenia w przyszłość kreatywności ludzkiej w świecie globalnej komunikacji, a to nie jest świat stworzony dla krasnoludów i robotów.

Moją argumentację, nim zastopowaliśmy, aby odświeżyć się w świecie realnym, można zreasumować w następujący sposób: oprogramowanie – czy to wykonywalne programy, muzyka, sztuka wizualna, liturgia, broń, czy co tam jeszcze – składa się ze strumieni bitów, które choć w zasadzie nierozróżnialne, to dzielone są na pogmatwaną wielość kategorii prawnych. Owa wielość na dłuższą metę jest niestabilna, z powodów integralnych dla procesu prawnego. Niestabilna różnorodność reguł jest wynikiem konieczności rozróżniania rozmaitych własnościowych interesów do strumieni bitowych. Konieczność taką odczuwają głównie ci, którzy mogą czerpać zyski ze społecznie akceptowanych form monopolu stworzonego przez traktowanie pomysłów jako własność. Ci z nas, którzy martwią się nierównością społeczną i hegemonią kulturową wytworzoną przez ten niesatysfakcjonujący intelektualnie i moralnie odrażający reżim, po prostu zostają zakrzyczani. Ci, którzy podnoszą wrzask, krasnoludy i roboty, są przekonani, że zasady własności są niezbędne, nie z powodu otwarcie manifestowanego pragnienia życia w świecie Ruperta Murdocha – chociaż zaproszenie do świata luksusów jest zawsze mile widziane – ale dlatego, że metafora bodźców, której używają nie tylko do zobrazowania, ale także jako argumentu, po prostu udowadnia, że zasady te – pomimo ich pożałowania godnych konsekwencji – są niezbędne, aby powstawało dobre oprogramowanie. Jedynym sposobem, aby trzymać się tego przekonania, jest ignorowanie faktów. W centrum cyfrowej rewolucji, z wykonywalnymi strumieniami bitów, które pozwalają na zrobienie wszystkich innych rzeczy, reżimy własnościowe nie tylko nie zmieniają rzeczy na lepsze, ale zmieniają je na radykalnie gorsze. Koncepcje własnościowe, cokolwiek z nimi jeszcze jest nie tak, nie tylko nie umożliwiają, ale wręcz cofają postęp.

Ale co jest tą tajemniczą alternatywą? Istnieje wolne oprogramowanie, ale jakie są związane z nim mechanizmy i jak się to uogólnia w kierunku nie-własnościowej teorii cyfrowego społeczeństwa?

Prawna teoria wolnego oprogramowania

Istnieje mit, jak większość z mitów częściowo oparty na rzeczywistości, że wszyscy programiści komputerowi to libertarianie. Prawicowi to kapitaliści, przyklejeni do swych akcji, gardzący podatkami, związkami zawodowymi i prawami obywatelskim; lewicowi nienawidzą rynku i rządu, wierzą w silne szyfrowanie bez względu, jak może to wspierać nuklearny terroryzm [23], i nie lubią Billa Gatesa, bo jest bogaty. Bez wątpienia istnieje podstawa do takiego wierzenia. Największą jednak różnicą pomiędzy „cyfrową elitą”, a światem zewnętrznym jest to, że w społeczności sieciowej anarchizm (a konkretnie indywidualizm nienastawiony na posiadanie) jest realnie działającą filozofią polityczną.

Podstawą sukcesu ruchu wolnego oprogramowania i największym osiągnięciem Richarda Stallmana nie jest wcale kawałek kodu komputerowego. Sukces wolnego oprogramowania, włączając przytłaczający sukces systemu GNU/Linux, pochodzi z możliwości zaprzęgnięcia wyjątkowej ilości wysiłku o wysokiej jakości do projektów ogromnych rozmiarów i o wysokim stopniu komplikacji. A z kolei taka możliwość pochodzi z prawnego kontekstu, w jakim organizuje się tę pracę. Wizjoner i projektant Richard Stallman stworzył coś więcej niż edytor Emacs, GDB czy GNU. Stworzył Powszechną Licencję Publiczną (GPL).

GPL [24] często zwana „copyleft”, używa praw autorskich (copyrights), parafrazując Toby Milsoma, by sfałszować fenomen anarchizmu. Jak stwierdza preambuła licencji:

Mówiąc o wolnym oprogramowaniu mamy na myśli swobodę, a nie cenę. Nasze Powszechne Licencje Publiczne wprowadzono po to, aby zapewnić Państwu swobodę rozpowszechniania kopii tego oprogramowania (i – jeśli ktoś chce – pobierania za tę usługę opłaty), jak również, aby udostępnić kod źródłowy oraz umożliwić dokonywanie zmian tego oprogramowania lub wykorzystywania jego fragmentów w nowych, wolnych programach.

W celu ochrony praw użytkownika jesteśmy zmuszeni wprowadzać ograniczenia zabraniające komukolwiek kwestionowanie jego praw albo sugerowanie rezygnacji z tych praw. Ograniczenia te sprowadzają się do pewnych dla Państwa obowiązków w przypadku rozpowszechniania przez Was kopii naszego oprogramowania bądź dokonywania w nim zmian.

Na przykład, jeśli rozprowadzacie Państwo kopie takiego programu, niezależnie czy gratisowo, czy za opłatą, musicie Państwo odbiorcy udzielić wszelkich tych praw, jakie mieliście sami. Musicie zapewnić mu również otrzymanie kodu źródłowego (lub możliwość otrzymania) oraz przedstawić niniejsze Warunki, aby mógł on poznać swoje prawa.

Wiele wariantów tego podstawowego pomysłu na wolne oprogramowanie było opisanych w rozmaitych licencjach, co już zaznaczałem. GPL różni się o innych sposób wyrażania tych wartości w jedynym ważnym aspekcie. Paragraf 2 opisuje to w adekwatny sposób:

Możesz modyfikować swoją kopię czy kopie Programu oraz dowolne jego części, tworząc przez to pracę opartą na Programie, jak również kopiować i rozprowadzać takie modyfikacje i pracę (…) pod warunkiem przestrzegania całości poniższych wymogów:

(…)

b. Musisz doprowadzić do tego, aby każda rozpowszechniana lub publikowana przez ciebie praca, która w całości lub części zawiera Program, albo pochodzi od niego lub jego części, była w całości i bezpłatnie licencjonowana dla wszelkich stron trzecich na warunkach niniejszej Licencji.

Paragraf 2(b) licencji GPL czasami nazywa się „ograniczającym”, ale jego prawdziwa intencja jest wyzwalająca. Tworzy on dobro wspólne, do którego każdy może dodawać, ale z którego nikt nie może odejmować. Z powodu paragrafu 2(b) każdy współpracownik w projekcie na licencji GPL ma pewność, że on oraz wszyscy inni użytkownicy będą mogli uruchamiać, poprawiać i rozpowszechniać program bez końca, że kod źródłowy będzie zawsze dostępny, oraz, że w przeciwieństwie do programów komercyjnych, czas życia programu nie będzie ograniczony warunkami rynkowymi czy decyzjami przyszłych twórców. Ta „dziedziczność” warunków licencji GPL bywa czasami krytykowana jako przykład anty-komercyjnego skrzywienia ruchu wolnego oprogramowania. Nic bardziej odległego od prawdy. Celem paragrafu 2(b) jest sprawianie, aby komercyjni dystrybutorzy wolnego oprogramowania byli lepszymi konkurentami dla biznesów oprogramowania własnościowego. Na potwierdzenie tego, najlepiej wypytać owych własnościowych konkurentów. Jak to określił Vinod Valloppillil, autor Microsoftowej notatki halloweenowej:

GPL i związana z nią awersja do rozgałęziana kodu zapewnia klientów, że nie poruszają się ewolucyjną ‚ślepą drogą’ wybierając konkretną komercyjną wersję Linuxa.

‚Rewolucyjna ślepa droga’ jest istotą argumentacji FUD [25].

Po przetłumaczeniu z mowy microsoftowej, oznacza to, że strategia, której używa dominujący producent oprogramowania własnościowego, aby odstraszać klientów od konkurencji – rozsiewanie strachu, niepewności i wątpliwości (FUD) dotyczących długoterminowej zdolności oprogramowania do pozostawania na rynku – nie działa w stosunku do programów na licencji GPL. Użytkownicy kodu na licencji GPL, włączając tych, którzy kupili oprogramowanie i systemy od dostawców komercyjnych, wiedzą, że przyszłe poprawki i udoskonalenia będą dostępne z dobra wspólnego, i że nie muszą obawiać się zniknięcia ich dostawcy, ani też, że ktoś użyje jakiegoś bardzo atrakcyjnego udoskonalenia czy też niezwykle koniecznej poprawki jako nacisku na „sprywatyzowanie programu”.

Takie właśnie wykorzystanie praw własności intelektualnej do stworzenia w cyberprzestrzeni wspólnego dobra jest podstawową instytucjonalną strukturą, która pozwoliła na triumf anarchizmu. Zapewnienie swobodnego dostępu i zezwolenie na dokonywanie modyfikacji na każdym etapie procesu tworzenia oznacza, że ewolucja oprogramowania odbywa się w szybkim stylu Lamarcka: każda sprzyjająca właściwość pracy innych może być bezpośrednio dziedziczona. Stąd szybkość, z jaką na przykład kernel Lunixa przerósł wszystkich swoich poprzedników. Ponieważ niemożliwa jest zdrada na rzecz przeciwnika i zachęca się do korzystania za darmo, a to rozwiązuje jeden z centralnych problemów kolektywnego działania we własnościowym systemie społecznym.

Nie-własnościowy sposób produkcji jest bezpośrednio odpowiedzialny za sławną stabilność i niezawodność wolnego oprogramowania, co wynika z czegoś, co Eric Raymond nazwał „prawem Linusa”: przy dostatecznej ilości oczu, wszystkie błędy są płytkie. W praktyce dostęp do kodu źródłowego oznacza, że jeśli mam problem, mogę go naprawić. A skoro mogę go naprawić, prawie nigdy nie będę musiał, gdyż ktoś inny prawie zawsze zauważy i poprawi go wcześniej.

Zaangażowanie w produkcję anarchistyczną może być moralnym imperatywem w społeczności wolnego oprogramowania; jak napisał Richarch Stallman, chodzi o wolność, a nie o cenę. A może to być też kwestia użyteczności, chęci produkowania lepszego oprogramowania niż pozwalają na to własnościowe metody pracy. Z punktu widzenie robota, licencja copyleft reprezentuje wypaczenie teorii, ale znacznie lepiej niż inne koncepcje rozwiązuje problem stosowania praw autorskich do nierozerwalnie połączonych funkcjonalnych i służących wyrażaniu właściwości programów komputerowych. To, że copyleft produkuje lepsze oprogramowanie niż alternatywne sposoby, nie oznacza, że powinno się zabronić stosowania tradycyjnych reguł praw autorskich tym, którzy chcą posiadać i sprzedawać oprogramowanie gorszej jakości, lub (pobłażliwie mówiąc) których produkty mają zbyt marny urok, aby nadawać się do pracy społecznej. Niemniej jednak, historia nasza powinna służyć jako ostrzeżenie dla robotów: świat jutra będzie miał niewiele związku ze światem przeszłości. Obecnie zasady naginane są w dwóch kierunkach. Korporacyjni właściciele „ikon kulturowych” i innych aktywów, którzy chcą przedłużenia ochrony dla twórców korporacyjnych, zamieniając „ograniczony czas” Artykułu I, paragraf 8 na nieograniczony tytuł własności, oczywiście szeptali czułe słówka do uszu robotów [26]. W końcu, kto kupował robotom bilety na koncerty? Podczas, gdy własnościowe podejście chce się okopać jeszcze mocniej w pomyśle praw autorskich wyzwolonych z drobnych niedogodności ograniczonego czasu i dozwolonego użytku, już rozpoczęło się anarchistyczne kontruderzenie w samym centrum systemu „oprogramowania kulturowego”. Jak jeszcze zobaczymy, robotom przytrafią się gorsze rzeczy. Ale zanim do tego dojdziemy, musimy krasnoludom złożyć ostateczne wyrazy szacunku.

Bo tam jest: magnes Faradaya i ludzka kreatywność

W końcu należy im się odpowiedź. Dlaczego ludzie tworzą wolne oprogramowanie, skoro nie mają z tego zysku? Zazwyczaj daje się na to dwie odpowiedzi. Jedna jest w połowie słuszna, druga całkiem błędna, a obie są niewystarczająco proste.

Błędna odpowiedź jest zawarta w częstych odnośnikach do „hakerskiej kultury wymiany podarków”. Takie użycie żargonu etnograficznego pojawiło się kilka lat temu i szybko, choć myląco, stało się wszechobecne. Tylko przypomina nam, że ekonometrycy tak zdeprawowali nasz proces myślenia, że każda forma nie-rynkowego zachowania gospodarczego wydaje się równa każdej innej. Ale wymiana podarków, jak rynek barterowy, to instytucja własnościowa. Wzajemność jest sednem tych symbolicznych aktów obopólnej zależności, ale jeśli słodkie ziemniaki czy ryba będą niedoważone, zaczną się kłopoty. Wolne oprogramowanie, że zaryzykuję powtarzanie się, jest dobrem wspólnym, nie ustanawia się tutaj rytuałów wzajemności. Kilku ludzi oddaje kod, którzy inni sprzedają, używają, zmieniają, lub hurtowo pożyczają całe części do użycia gdzie indziej. Pomimo dużej liczby ludzi (najwięcej dziesiątki tysięcy), którzy mieli wkład w GNU/Linux, to i tak o rzędy wielkości mniej od liczby ludzi, którzy nie wnieśli żadnego wkładu [27].

Część właściwej odpowiedzi sugerowana jest poprzez twierdzenie, że wolne oprogramowanie tworzone jest przez tych, którzy oczekują za swą aktywność rekompensaty w formie reputacji. Istnieje teoria, że sławni hakerzy linuksowi znani są na całej planecie jako bóstwa programowania. Z tego czerpią zarówno poczucie własnej wartości, jak i korzyści materialne [28]. Ale bóstwa programowania, mimo ich wkładu w wolne oprogramowanie, nie wykonały tego ogromu pracy. Jak często twierdzi sam Linus Torvalds, reputację zdobywa się przez dobrowolne potwierdzenie, że to wszystko zostało zrobione przez innych. A jak zauważyło wielu obserwatorów, ruch wolnego oprogramowania wyprodukował także doskonałą dokumentację. Pisanie dokumentacji to nie coś, co hakerzy robią, aby zdobyć poważanie i większość dokumentacji została sporządzona przez ludzi, którzy nie tworzyli kodu. Nie wolno nam też jedynie ograniczać pośrednich korzyści materialnych płynących z autorstwa do powiększania kapitału reputacji. Większość autorów wolnego oprogramowania, których znam, ma normalną pracę w przemyśle nowych technologii, a umiejętności, które szlifują w bardziej kreatywnej pracy wykonywanej poza normalnym rynkiem, bez wątpienia czasami w wymierny sposób zwiększają ich wartość na rynku. Od kiedy produkty wolnego oprogramowania osiągnęły masę krytyczną i stały się podstawą całego zestawu nowych metod biznesowych opartych na komercyjnej dystrybucji tego, co ludzie mogą dostać także za darmo, coraz więcej ludzi zatrudnia się do tworzenia wolnego oprogramowania. Niemniej jednak, aby zostać zatrudnionym na tym polu, trzeba samemu na nim zaistnieć. Jasne więc, że taki motyw istnieje, ale nie wyjaśnia on wszystkiego.

W rzeczy samej, pozostała część odpowiedzi jest zbyt prosta, aby zasłużyć na należytą uwagę. Najlepszym sposobem na zrozumienie tego, jest przyjrzenie się krótkiej i generalnie niespecjalnej karierze początkowo wrogiego autora wolnego oprogramowania. Vinod Valloppillil z Microsoftu, podczas pisania analizy porównawczej Linuxa, która wyciekła jako druga ze sławnych notatek halloweenowych, kupił i zainstalował system Linux na jednym z komputerów w jego biurze. Miał z tym kłopoty, gdyż (komercyjna) dystrybucja Linuxa, którą zainstalował, nie zawierała daemona, który obsługiwał protokół DHCP do dynamicznego przydzielania adresów IP. W efekcie wydarzyło się coś na tyle ważnego, że zaryzykujemy dłuższe wystawienie się na Styl Pisarski Microsoftu:

Po kilku wizytach na stronach WWW i przeczytaniu paru FAQ, znalazłem hosta FTP, który miał linuxowego klienta DHCP. Klient ten został stworzony przez inżyniera z Fore Systems (czego dowodzi jego adres e-mail, uważam jednak, że pracował nad nim w swoim wolnym czasie). Drugi zestaw dokumentacji/podręczników dla klienta DHCP został napisany przez hakera na Węgrzech, który podał relatywnie prosty zestaw instrukcji jak zainstalować/załadować program klienta.

Pobrałem i rozpakowałem klienta oraz wprowadziłem dwie proste komendy:

Make – skompilowała i stworzyła binaria klienta

Make Install – zainstalowała binaria jako daemon linuxowy

Wpisanie „DHCPCD” (DHCP Client Daemon) w linii komend rozpoczynało proces wyszukiwania DHCP i, voila, miałem działającą sieć IP.

Skoro właśnie ściągnąłem sobie kod klienta DHCP, kierowany impulsem pobawiłem się nim odrobinę. Chociaż klient nie był tak rozbudowany jak klient DHCP dostarczany z NT5 (na przykład nie zapytywał o wartości arbitralne i zapisywanie wyników), było oczywiste, że mógłbym dopisać dodatkowy kod, który implementowałby taką funkcjonalność. Cały klient składał się z około 2600 wierszy kodu.

Jednym z przykładów ezoterycznej, poszerzonej funkcjonalności, który w oczywisty sposób była łatą autorstwa kogoś innego, był zestaw procedur wypełniających zapytania DHCP łańcuchami tekstowymi specyficznymi dla pewnych hostów, wymaganych przez serwery ADSL czy modemów kablowych.

Kilku dodatkowych kroków wymagała taka konfiguracja klienta DHCP, aby sam startował i sam konfigurował mój interfejs ethernetowy podczas uruchamiania, ale było to udokumentowane w kodzie klienta i w dokumentacji węgierskiego twórcy.

Nie jestem zbyt zdolnym programistą uniksowym, ale natychmiast oczywiste stało się dla mnie, jak mógłbym stopniowo rozszerzać kod klienta DHCP (było to radosne i wciągające uczucie).

Co więcej, bezpośrednio dzięki GPL, i dzięki posiadaniu przede mną pełnego środowiska programistycznego, mogłem sobie pozwolić na napisanie i wysłanie moich modyfikacji w ciągu kilku godzin (w przeciwieństwie to tego, jak zrobilibyśmy to w systemie NT). Zaangażowanie się w ten proces mogłoby dobrze przygotować mnie do większych, bardziej ambitnych projektów linuxowych w przyszłości [29].

„Było to radosne i wciągające uczucie.” Zatrzymać maszyny drukarskie: Microsoft w praktyce weryfikuje Moglenowski Metaforyczny Wniosek z Prawa Faradaya. Owiń Internetem każdy mózg na planecie i zakręć planetą. Kablami popłynie oprogramowanie. Tworzenie jest wyłaniająca się własnością ludzkich umysłów. Jak słusznie zauważył Valloppillil, „bezpośrednio dzięki GPL”, dostępne mu wolne oprogramowanie spowodowało radosne zwiększenie kreatywności, w sposób niedostępny w jego normalnej pracy dla Największej Firmy Programistycznej na Ziemi. Gdyby tylko wysłał tę pierwszą, uzależniającą poprawkę, kto wie, gdzie byłby teraz?

Koniec końców, moi krasnoludzcy przyjaciele, to po prostu ludzka rzecz. Dlaczego Figuro śpiewał, dlaczego Mozart skomponował dla niego muzykę i dlaczego wymyślamy nowe słowa: bo możemy. Homo ludens spotyka homo faber. Społeczny warunek globalnej komunikacji, który nazywamy Internetem daje możliwość wszystkim nam bycia kreatywnymi w nowy i wcześniej nawet nieśniony sposób. Przynajmniej do chwili, gdy pozwolimy wtrącić się „własności”. Powtarzajcie za mną, krasnoludy i ludzie: Opierajcie się oporowi!

IV. Możnowładcy umierają w ciemnościach?

IPRobotowi, który właśnie wysiadł z samolotu po tygodniu w Bellagio zafundowanym przez wytwórnię Dreamworks SKG, wystarczy to do wywołania niestrawności.

Odblokować możliwości ludzkiej kreatywności przez połączenie każdego z każdym? Wyeliminować system własności, co pozwoli dodać wszystkie nasze głosy do chóru, nawet jeśli oznacza to wklejanie naszego śpiewu z mormońskiej świątyni i wysłanie rezultatu do przyjaciela? Nikt nie siedzi z opuszczoną szczęką przed wyświetlaną w telewizji mieszanką przemocy i nieuchronnie zbliżającej się kopulacji, sprytnie obmyślonej dla przyciągnięcia wzroku młodego mężczyzny do reklamy piwa? Co stanie się z cywilizacją? A przynajmniej, co stanie z wykładowcami praw autorskich?

Być może jest jeszcze za wcześnie. Mówimy jedynie o oprogramowanie. Prawdziwym oprogramowaniu, tego starego rodzaju, które steruje komputerami. Nie o takim, które wyświetlają odtwarzacze DVD, czy o takim, które tworzyli Greatful Dead. „A tak, Greatful Dead. Coś z nimi nie tak, nieprawdaż? Nie zakazywali nagrywania na swoich koncertach. Nie mieli nic przeciwko ich fanom, którzy drażnili przemysł muzyczny. Zdaje się, że sobie radzili, trzeba przyznać. Senator Patrick Leahy, czy on nie był fanem Greatful Dead? Ciekawe czy zagłosuje na przedłużeniem ochrony praw autorskich dla korporacji do 125 lat, aby Disney nie stracił Myszki w 2005. A te odtwarzacze DVD – przecież to komputery, nie?”

W społeczeństwie cyfrowym, wszystko jest połączone. Nie możemy polegać na dłuższą metę na rozróżnianiu jednego strumienia bitowego od innego, aby wykoncypować, jakie do niego zastosować zasady. To, co stało się z oprogramowaniem, staje się też z muzyką. Możnowładcy przemysłu muzycznego szamocą się dziko, aby zachować kontrolę nad dystrybucją, podczas gdy muzycy i słuchacze zdali sobie sprawę, że już nie trzeba im pośredników. Wielka wioska patiomkinowska z roku 1999, czyli tak zwana Secure Digital Music Initiative, zawaliłaby się znacznie wcześnie, niż zostałby zaprzysiężony Prezydent Internetu, z prostych, technicznych powodów, które spowodowały triumf wolnego oprogramowania [30]. Rewolucja anarchistyczna w muzyce różni się od tej w oprogramowaniu, czego nie trzeba wyjaśniać, ale także tutaj – co może potwierdzić każdy nastolatek z kolekcją plików MP3 zawierającą samodzielnie opublikowane nagrania artystów niezależnych – teoria została wyeliminowana przez fakty. Czy jesteś Mickem Jaggerem, czy wielkim narodowym artystą z trzeciego świata szukającego globalnej publiczności, czy zaszytym na strychu wynalazcą nowej muzyki, to wkrótce przemysł muzyczny nie będzie mógł ci nic zaoferować, czego lepiej nie załatwisz za darmo. A muzyka rozpowszechniana za darmo wcale nie brzmi gorzej. Płać artyście ile uważasz bezpośrednio, albo nie płać nic, jeśli nie chcesz. Daj ją swoim przyjaciołom, może im się spodoba.

To co wydarzyło się z muzyką, dzieje się także w świecie wiadomości. Serwisy informacyjne, o czym uczy się każdy student prawa w USA jeszcze przed obowiązkowym kursem Prawa Autorskiego dla Robotów, mają ochronę prawną swoich informacji dotyczących wydarzeń, choć nie samych faktów [31]. Dlaczego więc rozdają swoje wiadomości? Bo w świecie Internetu, większość wiadomości to zwykłe towary. Dawna przewaga reporterów, czyli fakt, że byli wewnętrznie połączeni w sposób, w który inni nie byli połączeni, gdy komunikacja była kosztowna, dawno odeszła w przeszłość. Teraz liczy się zdobycie widowni, którą można przekazać reklamodawcom. Z pewnością to nie serwisy telegraficzne miały przewagę w relacjonowaniu wydarzeń w Kosowa. A jeszcze mniej perły własności „intelektualnej”, telewizyjni możnowładcy. Ze swoimi przepłacanymi, pięknymi prezenterami, ze swą masywną infrastrukturą techniczną, są chyba jedynymi organizacjami na świecie, które nie mogą sobie pozwolić być zawsze i wszędzie. No i muszą ograniczać się do relacji nie dłuższych dziewięćdziesiąt sekund, bo łowcy widowni pójdą gdzieś indziej. Więc kto serwuje lepsze wiadomości, własnościowcy czy anarchiści? Wkrótce się przekonamy.

Oskar Wilde gdzieś powiedział, że problem socjalizmu polega na tym, że zajmuje zbyt wiele wieczorów. Problemem anarchizmu jako systemu społecznego są także koszty transakcyjne. Ale cyfrowa rewolucja zmienia te dwa aspekty ekonomii politycznej, które były niezmienne w dotychczasowej historii ludzkości. W świecie Internetu oprogramowanie ma zerowe koszty krańcowe, podczas gdy koszty społecznej koordynacji zostały tak zredukowane, że pozwalają na błyskawiczne tworzenie i likwidację bardzo zróżnicowanych grup społecznych o dużej skali, całkowicie pozbawionych ograniczeń geograficznych [32]. Tak fundamentalne zmiany w materialnych warunkach życia muszą koniecznie wymuszać równie fundamentalne zmiany w kulturze. Nie wydaje ci się? Powiedz to Irokezom. I, rzecz jasna, tak ważne przemiany w kulturze są zagrożeniem dla istniejących stosunków władzy. Nie wydaje ci się? Spytaj Chińskiej Partii Komunistycznej. Albo poczekaj 25 lat i zobacz, czy będziesz miał kogo się spytać.

W tym kontekście, wyginięcie IPRobotów nie jest ani zaskakujące ani tragiczne. Rzecz jasna, może on odnaleźć się drepczący po pustyni, wciąż klarownie wyjaśniający wyimaginowanej sali cenne, skomplikowane reguły świata, który już nie istnieje. Przynajmniej będzie miał znajome towarzystwo, znane z szykownych imprez w Davos, Hollywood czy Brukseli. Nasi Władcy Mediów toczą zapasy z przeznaczeniem, jakby byli przekonani, że Moc jest z nimi. Reguły dotyczące strumieni bitów już obecnie mają wątpliwą użyteczność w utrzymaniu władzy poprzez przyciąganie ludzkiej kreatywności. W świetle faktów, ci Cesarze mają mniej ubrań niż mają na sobie modelki, których używają, aby przyciągnąć nasz wzrok. Pozbawiona wsparcia technologii ograniczającej użytkownika, kultura wszechobecnego szpiegowania, które pozwala, aby każdy odczyt jakieś „własności” był rejestrowany i opłacany, oraz dymna zasłona z oddechów robotów, którzy zapewniają każdego młodego człowieka, że ludzka kreatywność znikłaby bez życzliwej arystokracji BillaG Twórcy, Lorda Murdocha Wszędobylskiego, czy Spielmeistera i Lorda Najwyższej Myszki – ich rządy są niemalże zakończone. Teraz na szali jest kontrola nad najrzadszym dobrem ze wszystkich: naszą uwagą. Rekrutacja, która zarabia wszystkie pieniądze w świecie w cyfrowej ekonomii, a obecni Lordowie Ziemi będą o to walczyć. Przeciwko nim zjednoczeni jedynie anarchiści: nic nieznaczący osobnicy, hipisi, hobbyści, kochankowie i artyści. Powstająca w ten sposób nierówna walka jest wielką polityczną i prawną sprawą naszych czasów. Arystokracją wydaje się trudna do pokonania, ale tak wyglądała też w 1788 i 1916 roku. Na razie, jak powiedział Chou En-Lai o znaczeniu Rewolucji Francuskiej, za wcześnie, aby to stwierdzić.

O autorze

Eben Moglen jest profesorem Prawa i Historii Prawa w Columbia Law School i prawnym doradcą Free Software Foundation.

Podziękowania

Ten tekst został przygotowany do wygłoszenia na Międzynarodowej Konferencji Buchmanna na temat Prawa, Technologii i Informacji, na Uniwersytecie w Tel Avivue, w maju 1999 roku. Dziękuję organizatorom za uprzejme zaproszenie. Jak zwykle wiele zawdzięczam Paneli Karlan za jej wkład i zachętę. Szczególnie chciałbym podziękować programistom na całym świecie, którzy sprawili, że zaistniało wolne oprogramowanie.

Przypisy

  1. To rozróżnienie było jedynie przybliżone w oryginalnym kontekście. W późnych latach 60. pewna część podstawowych funkcji sprzętu była cyfrowo zakodowana w elektronice urządzeń komputerowych, nie podlegając modyfikacji po opuszczeniu fabryki. Takie symboliczne, ale niemodyfikowalne komponenty znane są jako „mikrokod”, ale stały się potocznie nazywane „firmware’em”. Miękkość (chodzi o część „soft” w słowie software) odnosiła się głównie do możliwości zmiany przez użytkownika symboli, które określają zachowania. Gdy cyfrowa rewolucja spowodowała szerokie używanie komputerów przez ludzi technicznie niekompetentnych, najbardziej tradycyjne oprogramowanie – aplikacje, systemy operacyjne, instrukcje numeryczne, itd. – stało się dla większości użytkowników firmware’em. Może wciąż być w swej konstrukcji symboliczne, a nie elektroniczne, ale użytkownicy nie mogliby go zmienić, nawet gdyby chcieli, czego często – bezsilnie i pełni urazy – pragną. To „utrwalanie oprogramowania” (chodzi o zmienianie oprogramowania w formę niemodyfikowanną, stałą – firmware) jest podstawowym warunkiem własnościowego podejścia do prawnego zorganizowania społeczeństwa cyfrowego, co jest tematem tego tekstu.
  2. W dobie obecnej generacji, sam koncept „rozwoju” społecznego przenosi się z posiadania przemysłu ciężkiego opartego na silniku wewnętrznego spalania, na „post-przemysł” oparty na komunikacji cyfrowej i związanych z tym, „opartych o wiedzę” form aktywności gospodarczej.
  3. Właściwie, co ujawnia się po chwili namysłu, nasze geny to nasz firmware. Ewolucja spowodowała przejście z analogu do cyfry jeszcze zanim powstały zapisy w kopalinach. Nie osiągnęliśmy wciąż możliwości bezpośredniej, kontrolowanej modyfikacji. Aż do przedwczoraj. W kolejnym stuleciu nasze geny staną się oprogramowaniem, i choć nie będę ciągnął tego dalej w tym tekście, konsekwencje polityczne zniewolenia oprogramowania w tym kontekście są jeszcze bardziej niepokojące, niż w odniesieniu do artefaktów kulturowych.
  4. Patrz, na przykład: J. M. Balkin, 1998. Cultural Software: a Theory of Ideology. New Haven: Yale University Press.
  5. Patrz: Henry Sumner Maine, 1861. Ancient Law: Its Connection with the Early History of Society, and Its Relation to Modern Idea. First edition. London: J. Murray.
  6. Zazwyczaj nie lubię wtrącać elementów autobiograficznych do wykładów naukowych, ale skoro mam tutaj smutny obowiązek i wielką przyjemność podważać kwalifikacje i bona fide chyba wszystkich, muszę dokonać oceny także swoich własnych. Po raz pierwszy zostałem przedstawiony sztuce programowania komputerów w 1971 roku. Zacząłem zarabiać pieniądze jako programista komercyjny w 1973 roku – w wieku trzynastu lat – i robiłem to dalej, w gamie różnych przedsiębiorstw usług komputerowych, inżynierskich i technologicznych aż do 1985 roku. W 1975 roku pomagałem napisać jeden z pierwszych sieciowych systemów poczty elektronicznej w USA. Od 1979 roku byłem zaangażowany w badania i rozwój zaawansowanych języków programowania w firmie IBM. Ta działalność dała mi ekonomiczną możliwość studiowania historii nauczania i prawniczej przebiegłości. Moje zarobki wystarczały na opłacenie nauki, ale nie z powodu tego – aby wyprzedzić argument, którym później posłużą się ekonokransoludy – że moje programy były własnością mego pracodawcy, ale raczej dlatego, że pozwalały lepiej sprzedać jego sprzęt. Jak się przekonamy, większość z tego, co napisałem, było w efekcie wolnym oprogramowaniem. Choć później miałem znaczący techniczny wkład w ruch wolnego oprogramowania, o którym pisze ten tekst, to moja główna aktywność na jego rzecz dotyczyła spraw prawnych: przez ostatnie pięć lat (naturalnie, za darmo) służyłem jako główny doradca Free Software Foundation.
  7. Rzecz jasna, odtwarzacz ma jeszcze dodatkowe wejścia i wyjścia kanałów sterowania: przyciski czy pilot zdalnego sterowania są wejściami, a wyświetlacz utworu i czasu to wyjścia.
  8. To nie jest pogląd specyficzny dla naszego obecnego przedsięwzięcia. Blisko związany pomysł tworzy jedną z najważniejszych zasad w historii anglo-amerykańskiego prawa, idealnie wyłożoną przez Toby’ego Milsoma w następujący sposób:

    Cały życie prawa zwyczajowego obraca się wokół nadużywania jego podstawowych pomysłów. Jeśli zasady własności zapewniają, jak się wydaje, niesprawiedliwy rezultat, spróbuj przymusu; prawo wykupu dowiodło, że materiału przymusu można użyć do podrobienia fenomenu własności. Jeśli reguły kontraktu zapewniają, jak się wydaje, niesprawiedliwy rezultat, spróbuj wyrządzić szkodę. Jeśli reguły danej szkody, powiedzmy oszustwa dają, jak się wydaje, niesprawiedliwy rezultat, spróbuj innej, spróbuj zaniedbania. I tak kręci się świat prawa.

    S.F.C. Milsom, 1981. Historical Foundations of the Common Law. Second edition. London: Butterworths, strona 6.

  9. Patrz: Isaiah Berlin, 1953. The Hedgehog and the Fox: An Essay on Tolstoy’s View of History. New York: Simon and Schuster.
  10. Patrz: The Virtual Scholar and Network Liberation.
  11. Niezbędny, podstawowy słownik. Komputery cyfrowe naprawdę wykonują instrukcje numeryczne: łańcuchy bitów, które zawierają informacje w „rodzimym” języku stworzonym przez projektantów maszyny. Nazywa się je zwykle „językiem maszynowym”. Języki maszynowe są zaprojektowane dla szybkiego wykonywania na poziomie sprzętu i nie nadają się do bezpośredniego użycia przez istoty ludzkie. Dlatego też centralnym komponentem systemów komputerowych są „języki programowania”, które tłumaczą wyrażenia wygodne dla ludzi na język maszynowy. Najpowszechniejszą i znaczącą, ale nie jedyną, formą języka komputerowego jest „kompilator”. Kompilator dokonuje statycznego tłumaczenia, gdzie plik zawierający zrozumiałe dla człowieka instrukcje, znane jako „kod źródłowy”, zostaje przetworzony w jeden lub więcej plików zawierających dający się wykonywać język maszynowy, nazywanych „kodem wynikowym”.
  12. Trzeba powiedzieć, że była to ścieżka, którą podążała większość moich badań, głównie w związku z językiem APL („A Programming Language”) i jego następców. Jednakże nie był to całkowicie dominujące podejście, z powodów sugerowanych poniżej.
  13. Ten opis pomija pewne szczegóły. W połowie lat 70. IBM przejął liczącą się konkurencję na rynku komputerów mainframe, gdy duża akcja antytrustowa przeprowadzona przeciwko IBM przez rząd USA spowodowała podjęcie decyzji o „odłączeniu”, czyli oddzielnemu pobieraniu opłat za oprogramowanie. W tym mniej ważnym znaczeniu, oprogramowanie przestało być wolne. Jednakże – bez wchodzenia w obecnie wygasły, ale kiedyś zażarty spór dotyczący metod licencjonowania oprogramowania przez IBM – rewolucja odłączenia oprogramowania miała mniejszy wpływ na społeczne praktyki produkcji oprogramowania niż się można było spodziewać. Jako człowiek odpowiedzialny za techniczne udoskonalenia jednego z produktów IBM dotyczących języków programowania w latach 1979 do 1984, mogłem na przykład traktować ten produkt jak „prawie wolny”, czyli mogłem omawiać z użytkownikami zmiany, które proponowali czy czynili w programach, czy też angażować ich we wspólny rozwój produktu dla korzyści wszystkich użytkowników.
  14. Ten opis jest znacznie skrócony i może wydawać się jednocześnie zbytnio uproszczony oraz zbyt pozytywny w stosunku do tych, którzy pracowali w przemyśle komputerowym podczas jego rozwoju. Ochrona oprogramowania komputerowego prawem autorskim była w latach siedemdziesiątych kontrowersyjnym tematem, co doprowadziło do sławnej komisji CONTU i jej łagodnych rekomendacji w 1979 na korzyść objęcia ochroną prawem autorskim oprogramowania. No i IBM wydawał się znacznie mniej skory do współpracy ze swoimi użytkownikami w tym czasie, niż to opisuję. Niemniej jednak najbardziej istotnym elementem jest kontrast ze światem stworzonym przez komputery PC, Internet i dominację Microsoftu, z wynikającym z tego bodźcem do powstania ruchu wolnego oprogramowania, dlatego więc koncentruję się głównie na tym, co podkreśla ten kontrast.
  15. Omawiam w tym kontekście znaczenie oprogramowania komputerów PC, ewolucję „rynku gałek ocznych”, „sponsorowanego życia” w rozdziałach mojej przygotowywanej książki The Invisible Barbecue, której częścią jej ten tekst.
  16. Te same ambiwalentne uczucia, podsycane przez złe oprogramowanie prowadzące do powszechnej niestabilności nowoczesnych technologii, są jednocześnie przerażająca i kojące dla wszystkich technicznie niekompetentnych, oraz można je zauważyć w, głównie amerykańskiej, histerii związanej z rokiem 2000.
  17. Krytyczne wnioski tej prostej obserwacji dotyczącej naszych metafor są poruszane w „How Not to Think abort ‚The Internet'”, The Invisible Barbecue (w przygotowaniu).
  18. Technicznie zorientowani czytelnicy zauważą, że to przyspieszyło rozwój na przestrzeni lat 1969-1973.
  19. Systemy operacyjne, nawet Windows (który stara się ukryć ten fakt przed użytkownikiem tak skutecznie, jak tylko jest to możliwe), są właściwie kolekcjami komponentów, a nie niepodzielnych jednostek. Większość tego, czym zajmuje się system operacyjny (zarządzanie systemami plików, sterowanie wykonywaniem procesów, itp.) może zostać wyabstrahowana od szczegółów konkretnego sprzętu komputerowego, na którym uruchamia się danych system. Tylko mały, wewnętrzny rdzeń systemu musi zmagać się z wyszukanymi szczegółami konkretnego sprzętu. Jeśli system zostanie napisany w bardziej ogólnym języku – jak język C – tylko ten wewnętrzny rdzeń, wśród fachowców zwany kernelem, będzie wyspecjalizowany do obsługi specyficznej architektury komputerowej.
  20. Dokładna analiza kreatywna, w jaki sposób Torvalds sprawił, że ten proces funkcjonuje, i co z tego wynika dla społecznych praktyk tworzenia oprogramowania, została przedstawiona przez Erics S. Raymonda w referacie z 1997 roku, „The Cathedral and the Bazaar„, który także odegrał znaczącą rolę w rozpowszechnianiu idei wolnego oprogramowania.
  21. Jest to cytat z dokumentu znanego jako „notka Halloweenowa”, która opatrzona dopiskami Eirca Raymonda, któremu została przekazana, znajduje się pod adresem: http://www.opensource.org/halloween/halloween1.html
  22. Nie dalej jak w 1994 roku, utalentowani i technicznie kompetentni (choć używający Windows) wykładowcy prawa i ekonomii z głównych amerykańskich szkół prawniczych poinformowali mnie poufnie, że wolne oprogramowanie najprawdopodobniej nie zaistnieje, gdyż nikt nie będzie dostatecznie zachęcany do tworzenia naprawdę wyrafinowanych programów wymagających zainwestowania znaczącego wysiłku tylko po to, aby rozdawać je za darmo.
  23. To zagadnienie także wymagałoby dokładniejszego zbadania, szczególnie że jest argumentem za zwiększeniem uprawnień państwa. Patrz mój esej: „So Much for Savages: Navajo 1, Government 0 in Final Moments of Play.”
  24. Patrz GNU General Public License, wersja 2, czerwiec 1991.
  25. Patrz V. Valloppillil, Open Source Software: A (New?) Development Methodology.
  26. Nadciągający czas wygaśnięcia własności Disneya do Myszki Miki wymaga, z punktu widzenia bogatego „sponsora kampanii wyborczej”, aby zmieniono ogólne prawa autorskie USA. Patrz „Not Making it Any More? Vaporizing the Public Domain”, The Invisible Barbecue.
  27. Niedawne szacunki oceniają liczbę systemów Linux na świecie na około 7,5 miliona. Patrz Josh McHugh, 1998. „Linux: The Making of a Global Hack,” Forbes (August 10). Ponieważ to oprogramowanie jest swobodnie dostępne poprzez sieć, nie ma prostej metody ocenienia ilości użytkowników.
  28. Eric Raymond jest zwolennikiem teorii „wzmacniania ego”, do której dodaje inne pseudo-etnograficzne porównanie – tworzenie wolnego oprogramowania do ceremonii potlatch Kwakiutlów. Patrz Eric S. Raymond, 1998. „Homesteading the Noosphere„. Ale ceremonia potlatch, będąca z pewnością formą rywalizacji o status, nie jest podobna do wolnego oprogramowania z dwóch podstawowych powodów: jest z zasady hierarchiczna, a wolne oprogramowanie nie jest, oraz od czasu, gdy Thorstein Veblen po raz pierwszy zwrócił na to uwagę, jest formą ostentacyjnego marnotrawstwa. Patrz Thorstein Veblen, 1967. The Theory of the Leisure Class. New York: Viking, strona 75. To są właśnie powody, które odróżniają anty-hierarchiczną i utylitarystyczną kulturę wolnego oprogramowania od jej własnościowych odpowiedników.
  29. Vinod Valloppillil, Linux OS Competitive Analysis (Halloween II). Zauważmy zdziwienie Vallopillila, że program napisany w Kalifornii został następnie udokumentowany przez programistę na Węgrzech.
  30. Patrz: „They’re Playing Our Song: The Day the Music Industry Died”, The Invisible Barbecue.
  31. International News Service v. Associated Press, 248 U.S. 215 (1918).
  32. Patrz: „No Prodigal Son: The Political Theory of Universal Interconnection”, The Invisible Barbecue.

***

Tłumaczenie: Maciej Miąsik

Tekst został wcześniej opublikowany na blogu miasik.net

Autor tłumaczenia prowadzi bloga miasik.net

1 comment

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *