Większość użytkowników komputerów korzysta z oprogramowania prawnie zastrzeżonego, nawet nie zastanawiając się nad zasadnością takiej formy licencjonowania. Warto wiedzieć, że istnieje dla niego alternatywa.
W latach 70. rynek oprogramowania różnił się znacznie od obecnego. Nie były wtedy powszechne licencje jednostanowiskowe czy też „tylko do użytku niekomercyjnego”. Nie było też w związku z tym powszechne pojęcie „piractwa”. Istotną rolę w tworzeniu oprogramowania pełniły uczelnie, na których zatrudniano społeczności hakerskie. (Warto zaznaczyć, że w mediach zwykle mianem hakerów określa się błędnie krakerów, czyli osoby łamiące zabezpieczenia komputerowe. W rzeczywistości słowo „haker” oznacza osobę o bardzo dużych umiejętnościach programistycznych, której sprawia przyjemność rozwiązywanie nowych problemów). Hakerzy byli użyteczni zarówno dla uczelni, jak i dla dużych korporacji, które sponsorując ich działalność uzyskiwały w zamian bardzo wydajne centra badawcze będące źródłem najwyższej jakości kodu. Przekazując im oprogramowanie, producent korzystał na wprowadzanych przez nich poprawkach. Duża część programów była rozprowadzana w takiej postaci, w jakiej była stworzona, czyli jako kod źródłowy, który mógł być analizowany i dostosowywany do własnych potrzeb. W systemie tym dostęp do programu nie był zbyt ograniczany; aby uzyskać jego kopię, wystarczyło zwykle poprosić o to kogoś, kto go posiadał. Potem mógł on skorzystać na wprowadzonych przez nas usprawnieniach. Nie było to niczym szczególnym – dzielenie się posiadanym oprogramowaniem było naturalnym przejawem współpracy i wielu programistów nawet nie myślało o zastrzeganiu praw do napisanego przez siebie programu; traktowali go jak dobro wspólne. Dla hakerów dzielenie się informacją było jednym z podstawowych elementów etyki.
System ten zaczął się rozpadać na początku lat 80. Na rynku zaczęło pojawiać się coraz więcej firm, które, chcąc zmaksymalizować zyski, udostępniały swoje programy jedynie w niezdatnej do edycji postaci binarnej, w dodatku zakazując ich redystrybucji bez uiszczenia stosownej opłaty. Przed ukazaniem się pierwszego komputera IBM PC, firma programistyczna Microsoft zawarła z koncernem IBM umowę, na mocy której stała się ona dostawcą systemu operacyjnego dla tego komputera, zachowując jednocześnie prawa własności do niego. IBM zerwał potem współpracę z Microsoftem, ale kontrakt ten odbija mu się czkawką do dziś, a Microsoftowi pozwolił na uzyskanie niemal monopolistycznej pozycji.
Wydarzenia te nie pozostały oczywiście bez wpływu na społeczności hakerskie. Wielu hakerów rozpoczynało tworzenie prawnie zastrzeżonego oprogramowania, podpisując umowy, które zobowiązywały ich do niedzielenia się informacją z innymi członkami społeczności. W 1981 roku firmy programistyczne Symbolics i Lisp Machines zatrudniły niemal wszystkich hakerów pracujących dotychczas w Artificial Inteligence Laboratory (działającym w MIT). Zdziesiątkowana społeczność nie była już w stanie sama się utrzymać i rozpadła się. W 1982 roku uczelnia zakupiła nowy komputer, na którym zamiast stworzonego przez hakerów systemu ITS zainstalowano prawnie zastrzeżony system firmy Digital. Zdarzenia te dotknęły bezpośrednio jednego z tamtejszych hakerów, Ryszarda M. Stallmana. Został on postawiony przed koniecznością dokonania wyboru: aby móc w ogóle korzystać z komputera, musiał zgodzić się na ograniczenia narzucane mu przez producentów oprogramowania. Zapewne w tym przypadku sam również zacząłby tworzyć oprogramowanie własnościowe. Stallman wybrał inne rozwiązanie. Jako programista, zdecydował się na przywrócenie użytkownikom utraconej wolności poprzez stworzenie systemu operacyjnego, który zamierzał rozdać wszystkim chętnym bez ograniczeń licencyjnych. 27 września 1983 roku ogłosił oficjalnie swe zamiary w Internecie, prosząc jednocześnie o wsparcie inne osoby. W styczniu 1984 r. opuścił MIT i rozpoczął pracę nad projektem, który nazwał GNU (od GNU’s Not Unix – GNU to Nie Unix). W 1985 roku założył Fundację Wolnego Oprogramowania, której celem, oprócz tworzenia programów w ramach projektu GNU, stała się m.in. promocja wolnego oprogramowania i wolnej dokumentacji.
Aby program został przez fundację uznany za wolne oprogramowanie, musi spełnić kilka warunków. Po pierwsze, użytkownik musi mieć pełną wolność uruchamiania programu. Po drugie, użytkownik musi mieć możliwość modyfikowania programu. Ostatnim warunkiem jest wolność rozpowszechniania programu i jego zmodyfikowanych wersji, za opłatą lub bez niej. Część wolnego oprogramowania jest dodatkowo chroniona za pomocą mechanizmu copyleft, który zabezpiecza je przed zawłaszczeniem. W praktyce jego działanie sprowadza się do tego, że redystrybutor musi rozprowadzać program wraz z kodem źródłowym i na tych samych prawach, na których go otrzymał.
Do 1990 roku system został prawie ukończony – nie zdołano napisać jedynie jądra, które sprawiało programistom niemałe trudności (do dziś zresztą trwają prace nad jego stabilną wersją). W 1991 roku Linus Torvalds, fiński student, napisał poza projektem GNU jądro Linux. Po połączeniu go około 1992 roku z oprogramowaniem GNU powstał kompletny i wolny system operacyjny GNU/Linux (nazywany często błędnie Linuksem).
W 1998 roku w ruchu doszło do secesji. Po otwarciu kodu źródłowego przeglądarki internetowej Netscape (nazwanego Mozilla), grupa osób pod wodzą hakera i anarchokapitalisty Eryka S. Raymonda rozpoczęła nawoływanie do zaprzestania korzystania z terminu „wolne oprogramowanie” i zastąpienia go nazwą „open source” (ang. „otwarte źródło”), argumentując to m. in. tym, że jest ona bardziej przyjazna dla biznesu. Raymond pisał: „Retoryka RMS potrafi uwieść wielu z nas. My, hakerzy, jesteśmy skłonnymi do rozmyślań idealistami, do których łatwo trafiają takie słowa jak »zasada«, »wolność« i »prawa«. Nawet jeżeli nie zgadzamy się ze szczegółami programu, chcemy, aby retoryka RMS odnosiła skutek, sądzimy, że powinna działać na ludzi, i dziwimy się, że w 95% nie odnosi skutku, gdyż trafia na myślących inaczej niż my.”
Dominująca pozycja oprogramowania prawnie zastrzeżonego opiera się na istniejącym prawie autorskim i jego ochronie, która jest zapewniana przez państwo. Producent takiego oprogramowania nie otrzymuje pieniędzy za sam proces twórczy (z rozważania wyłączam rynek gier komputerowych, w którym występują pośrednicy w postaci dystrybutorów), lecz jedynie za korzystanie z jego wyimaginowanej własności intelektualnej. Ponieważ istota wolnego oprogramowania polega w dużej mierze de facto na zrzeczeniu się praw autorskich do programu (szanując tym samym prawa własności do przedmiotów materialnych), jego twórcy muszą znaleźć inne sposoby zarabiania na nim. Jednym z nich jest pobieranie opłat nie za sprzedane kopie, lecz za wykonaną pracę – np. przez pewien czas Ryszard Stallman utrzymywał się z pięniędzy, które otrzymywał od swych klientów w zamian za to, że podczas pracy nad edytorem tekstowym GNU Emacs rozwijał te jego części, których sobie zażyczyli. Jest to metoda efektywna i jednocześnie dostosowana do potrzeb klienta – płaci się bezpośrednio programiście tylko za potrzebne elementy, z pominięciem kosztów obsługi biura, reklamy itp. Często środki zapewniają firmy i instytucje zainteresowane rozwojem danego oprogramowania, a w przypadku większych projektów pieniądze zbiera się również sprzedając gadżety oraz pudełkowe wersje programów.
Jak wolne oprogramowanie radzi sobie w warunkach rynkowych? Jakkolwiek może się wydawać, że mniejsza ilość pieniędzy zaskutkuje mniejszą ilością i słabszą jakością kodu, należy uwzględnić również dodatni wpływ bazarowego modelu tworzenia oprogramowania. Oprogramowanie nie jest w nim tworzone przez odizolowaną grupę osób, lecz przy aktywnym współudziale użytkowników i programistów. Nie zawsze rozpoczynają oni pracę od podstaw, gdyż często mogą skorzystać z roboty wykonanej wcześniej przez innych. Publicznie dostępny kod źródłowy jest przeglądany i modyfikowany przez wiele osób, co jednocześnie obniża koszty produkcji i radykalnie przyczynia się do zwiększenia jakości. Ponadto praktycznie eliminuje to ryzyko umieszczenia w kodzie ukrytych funkcji szpiegujących użytkownika. Te cechy spowodowały, że w tzw. poważnych zastosowaniach wolne oprogramowanie znalazło sobie uznanie. Według danych firmy Netcraft, ponad 50% serwerów internetowych działa w oparciu o Apache, aplikację rozwijaną przez Fundację Oprogramowania Apache. Obliczenia rozproszone, których zadaniem jest m.in. wspomaganie budowy Wielkiego Zderzacza Hadronów w laboratorium CERN oraz przetwarzanie danych zbieranych przez detektory fal grawitacyjnych, prowadzone są z wykorzystaniem wolnego oprogramowania – Berkeley Open Infrastructure for Network Computing. Również wielki biznes (w tym firmy takie, jak IBM, Sun czy Google) aktywnie wspiera rozwój „open source”.
Podbój rynku komputerów domowych jest nieco utrudniony, głównie ze względu na monopolistyczne rozwiązania technologiczne Microsoftu (większość niewolnych programów udostępnianych dla Windows standardowo nie uruchomi się pod innymi systemami operacyjnymi bez wykorzystania emulatorów; dotyczy to w szczególności gier komputerowych). Przez pewien czas przeszkodą było też to, że oprogramowanie tworzone przez hakerów było dla zwykłych użytkowników zbyt trudne w obsłudze, jednak praca kilku firm zatarła tę różnicę. Perspektyw ekspansji należy upatrywać m.in. w działaniach Marka Shuttlewortha. Ten współrozwijający jedną z dystrybucji GNU/Linuksa w 1995 roku założył firmę Thawte, specjalizującą się w certyfikatach cyfrowych i bezpieczeństwie internetowym. Majątek, który zyskał na tej działalności, pozwolił mu w 2002 r. za 20 milionów dolarów stać się drugim w historii kosmicznym turystą. Następnie założył firmę Canonical, która zajmuje się rozwojem przyjaznej dla zwykłego użytkownika dystrybucji systemu GNU/Linux – Ubuntu. W krótkim czasie stała się ona jedną z najpopularniejszych dystrybucji GNU/Linuksa i obecnie prężnie się rozwija.
Częstym zarzutem stawianym wolnemu oprogramowaniu jest teza, jakoby było ono formą cyfrowego komunizmu. Nic bardziej mylnego. Przekonanie takie wynika zwykle z intuicyjnego przenoszenia praw własności do przedmiotów materialnych na płaszczyznę wirtualną. Postępowanie to nie jest jednak uprawnione: głównym powodem, dla którego prawa własności są w ogóle przyznawane, jest rzadkość pewnych dóbr. Nikt nie postuluje prywatyzacji powietrza. Na pierwszy rzut oka widać, że dane cyfrowe w ogóle nie są rzadkie – mogą być powielane w dowolnej ilości przy znikomych kosztach. Jest rzeczą charakterystyczną, że do wprowadzenia rzadkości dóbr niematerialnych konieczna jest ingerencja państwa, dla którego system ochrony własności inaczej jest jednym ze sposobów na uregulowanie i „ucywilizowanie” rynku. Na wolnym, nieskrępowanym patentami i prawami autorskimi rynku sektor oprogramowania wyglądałby zgoła odmiennie. W rzeczy samej, monopol nadawany przez państwo ze względu na „własność” intelektualną i inne sposoby na wspieranie niektórych sektorów to dwie strony tego samego medalu – etatystyczne stymulowanie gospodarki według politycznego widzimisię.
***
Inna wersja powyższego artykułu pod tytułem „O wolnym oprogramowaniu” ukazała się w 835. numerze tygodnika „Najwyższy Czas!”
Ciekawa strona, trafilem tu przypadkowo, ale od dzis bede wpadal czesciej, pozdro