Tekst pochodzi z Forum Dyskusyjnego LBC http://users.nethit.pl/forum/read/fdlbc/2874351/ . Autor jest przewodniczącym Komunistycznej Partii Polski


Marcin Adam

“Nowa ekonomia“ i jej charakterystyczne cechy
 

Intensywny rozwój techniki pod koniec XX wieku i jego wpływ na nową jakość zjawisk ekonomicznych stał się obiektem szczególnego zainteresowania prawników i ekonomistów zajmujących się polityką antytrustową. Richard A.Posner wprowadza pojęcie „nowej ekonomii“ jako wynik oddziaływania na współczesną gospodarkę trzech wielkich czynników. Pierwszym jest rynek oprogramowania komputerowego i powstanie specyficznego przemysłu związanego z jego produkcją. Drugim internet i działalność na tym polu przedsiębiorstw zajmujących się udostępnianiem połączeń z internetem, prowadzących portale internetowe oraz tworzących zawartość udostępnianych przez internet serwisów. Trzecim natomiast przemysł związany z wytwarzaniem środków łączności oraz sprzętu komputerowego na użytek obydwu poprzednich dziedzin. Dziedziny te odróżniają się w zauważalny sposób od pozostałych, w szczególności od związanych z wytwarzaniem dóbr rozumianych tradycyjnie jako przedmioty materialne.
W przypadku przemysłów tradycyjnych produkcję charakteryzuje wieloetapowość i często wielość zaangażowanych w nią na różnych etapach podmiotów. Skala produkcji jest ograniczona jest zarówno poziomem mocy produkcyjnych, jak i możliwościami poniesienia przez przedsiębiorstwo kosztów związanych z jej zwiększeniem. Produkcja wymaga zaangażowania znacznej wielkości kapitału trwałego. Rynki zachowują się w sposób stosunkowo stabilny, a wchodzenie i wychodzenie podmiotów jest rzadkie. Postęp odbywa się stopniowo.
Tymczasem główną cechą charakteryzującą dziedziny „nowej ekonomii“ jest brak większości tych czynników. Głównym występującym w nich „produktem” jest własność intelektualna, występująca przede wszystkim w postaci kodu komputerowego. Dotyczy to zarówno oprogramowania komputerowego, jak i zawartości stron internetowych w których informacja również zostaje przetworzona na kod. Wreszcie przemysły wytwarzające podzespoły komputerowe i środki łączności bazują przede wszystkim na technologii produkcji, a więc również na własności intelektualnej. We wszystkich tych dziedzinach występuje bardzo niski koszt jednostkowy dający w zasadzie nieograniczoną możliwość zwiększania skali produkcji. Nakłady kapitału w postaci środków trwałych nie odgrywają tak zasadniczej roli, wchodzenie więc na rynek podmiotów jak i ich eliminacja następuje więc stosunkowo szybko i często. Wreszcie postęp występuje na niespotykaną dotąd skalę wywołując wielką dynamikę tego rynku.

Efekt sieci

Nowym i charakterystycznym dla produktów zaawansowanej technologii zjawiskiem jest tzw. „efekt sieci“. Jest on silnie związany z kompatybilnością, czyli zgodnością pewnych standardów technicznych. Najłatwiej efekt ten zilustrować na przykładzie sieci komunikacyjnej, skąd z resztą wywodzi się jego nazwa. Jeżeli użytkownik urządzenia do komunikowania się chce się porozumieć z innym użytkownikiem, niezbędne jest aby również jego urządzenie spełniało ten sam standard. Jeżeli urządzenie takie służy do komunikowania się z nieokreśloną liczbą osób, to jego atrakcyjność będzie w przeważającej mierze zależała od tego ile osób będzie z niego korzystać.
Efekt sieci może także wystąpić bez elementu bezpośredniej komunikacji między użytkownikami. Jeżeli chcemy np. użyć określonego programu komputerowego, musimy posiadać system komputerowy, do pracy na którym program ten został przystosowany. Im większa liczba osób posiada systemy komputerowe w takim samym standardzie, tym większa ilość programów będzie dla niego powstawać, i tym samym użyteczność tego standardu będzie wzrastać. Efekt ten równie dobrze dotyczyć np. kart płatniczych i systemów przeznaczonych do realizacji transakcji za ich pomocą. Możemy mieć z nim do czynienia w przypadku wszelkich produktów związanych z przetwarzaniem i wymianą danych. Jego istota polega na tym, że użyteczność każdej jednostki produktu staje się tym większa, im większa jest liczba użytkowników produktu spełniającego ten sam standard.

Samoutwierdzające się oczekiwania

Jak już wspomniałem jednak, rynek nowoczesnych technologii charakteryzuje się bardzo intensywnym postępem i związanymi z nim szybkimi zmianami. Stąd, z punktu widzenia konsumentów, ocena użyteczności określonego produktu zależy nie tyle od obecnej ilości jego użytkowników, co od przewidywań dotyczących możliwości jego upowszechnienia się w przyszłości. Przewidywania te mają znacznie większe znaczenie niż konkretne zalety określonego standardu, czy nawet stopień jego zaawansowania technicznego. Cechy te schodzą na dalszy plan wobec zagrożenia możliwością jego nie przyjęcia się w ogóle.
Z punktu widzenia zaś producentów możliwość wzbudzenia w potencjalnych konsumentach określonych oczekiwań co do upowszechnienia produktu staje się ważniejsza zarówno od jakości zaspakajania przez ten produkt potrzeb, jak i od jego ceny. Głównym natomiast czynnikiem wpływającym na te oczekiwania jest przeświadczenie konsumentów o sile rynkowej producenta. Mechanizm ten potęguje władzę rynkową, sprawiając, że podmioty już ją posiadające uzyskują jej coraz więcej. Uniemożliwia też konkurowanie na rynku producentom o słabszej pozycji, gdyż ich produkty przestają być atrakcyjne i to bez względu na oferowaną przez nich jakość oraz cenę. Efekt sieci wpływa zatem tak dalece na kryteria, którymi muszą kierować się konsumenci, że może nawet całkowicie wyeliminować mechanizmy konkurencyjne.
Innym zjawiskiem silnie związanym z kompatybilnością jest występowanie systemów. Zachodzi ono wtedy, kiedy do działania określonych produktów potrzebne jest korzystanie przez użytkownika z dwóch lub większej ich ilości, czyli współpracujących ze sobą komponentów systemu. Na przykład, aby korzystać z system zapisu obrazu VHS potrzebne są dwa komponenty: kaseta wideo oraz magnetowid. Obydwa muszą oczywiście odpowiadać standardowi VHS. Większa ilość komponentów występuje w systemach komputerowych. Tutaj możemy mówić zarówno o zgodności oprogramowania ze sprzętem, jak i o zgodności komponentów tak samego sprzętu, jak i oprogramowania. Przeciętny system komputerowy składa się bowiem z płyty głównej, procesora, karty graficznej, dźwiękowej, klawiatury, monitora itd. W warstwie programowej tworzyć go może natomiast system operacyjny, środowisko graficzne oraz różnego rodzaju biblioteki procedur, aż wreszcie działające na nim inne rodzaje oprogramowania, które korzystają ze wcześniej wymienionych komponentów. Każdy z tych elementów może być wytwarzany przez innego producenta, jednak wszystkie one muszą spełniać określone standardy zgodności.
W poprzednio omawianym przypadku, kiedy opisywałem istotę efektu sieci, kompatybilność dotyczyła całych urządzeń lub systemów i wywoływała pewne relacje pomiędzy producentami a konsumentami. Efekt systemu, wynikający się z kompatybilności poszczególnych komponentów wiąże natomiast ze sobą w podobny sposób producentów. Producenci muszą się bowiem porozumiewać, po to, by produkowane przez nich komponenty tego samego systemu zachowywały zgodność. Mogą oni ustanawiać standardy otwarte, czyli takie, którym odpowiadające technologie może wytwarzać każdy producent. Standardy te mogą jednak zostać opanowane również przez pojedynczych producentów lub być chronione prawami patentowymi. Tego rodzaju standardy mogą powstawać przy braku porozumienia lub w sytuacji, kiedy jeden z producentów wyprzedza konkurentów w rozwoju technologii w stopniu, który umożliwia mu samodzielne ich ustanawianie. Mogą zostać również przeforsowane forsowanie, gdy kilku producentów wprowadza równocześnie swoje standardy i usiłuje je rozpowszechnić i wypierając standardy ustanowione przez konkurentów. Porozumienia dotyczące standardów otwartych nie powinny budzić obaw z punktu widzenia polityki antytrustowej. Przynoszą one korzyści zarówno konsumentom jak i producentom. Standardy zamknięte mogą się jednak stać źródłem nadużyć eksploatacyjnych. Dlatego wszelkie porozumienia między grupami producentów w celu ustanawiania standardów zamkniętych lub eliminacji innych standardów, w szczególności eliminacji standardów otwartych, mogą mieć charakter zmowy monopolistycznej lub praktyki antykonkurencyjnej zmierzającej do wyeliminowania konkurencji.
Warto jeszcze przyjrzeć się zjawisku kompatybilności pomiędzy różnymi systemami. Możemy powiedzieć, że są one kompatybilne, kiedy możemy je wykorzystać zamiennie przy użyciu tych samych danych. System Video8 jest kompatybilny z systemem VHS, ponieważ możemy pomiędzy nimi w miarę swobodnie przenosić nagrania. Kompatybilność jednak nie zawsze jest całkowita. Możemy mieć do czynienia z kompatybilnością częściową, kiedy np. tylko niektóre dane opracowane dla jednego systemu nadają się do użycia na innym, lub kiedy wykorzystanie danych opracowany dla jednego systemu wiąże się ze zmniejszeniem ich użyteczności przy ich użyciu na innym. Kompatybilność częściowa może wystąpić np. pomiędzy różnymi komputerowymi systemami operacyjnymi należącymi jednak do tej samej rodziny. Niektóre programy napisane dla jednej dystrybucji Unixa mogą zostać uruchomione pod inną, jednakże nie wszystkie. Nagrania dźwiękowe z płyt winylowych mogą być przenoszone na kasety magnetofonowe lub płyty kompaktowe. Jednak przeniesienie nagrania z płyty kompaktowej na kasetę będzie związane ze stratą jakości. Kompatybilność zarówno całkowita, jak i częściowa, może zachodzić także w jedną lub w obie strony. Programy napisane dla systemu MS DOS mogą być dzięki trybowi emulacji uruchamiane pod systemem Windows. Można zatem powiedzieć, że między tymi systemami zachodzi kompatybilność w jedną stronę.
W dziedzinach zaawansowanej technologii wytwarza się pewien szczególny rodzaj przywiązania konsumentów do produktu. O ile bowiem w przypadku większości tradycyjnych artykułów możemy mówić na ogół o przyzwyczajeniu konsumentów do określonej marki, czy innych jego właściwości, to w przypadku produktów wysokiej technologii ta relacja zaczyna nabierać szczególnego charakteru. Posługiwanie się urządzeniami technicznymi, czy oprogramowaniem komputerowym wymaga często nie tylko zwykłego doświadczenia, ale wręcz szczególnej wiedzy, nabycie której wiąże się z wymiernymi kosztami. Nauka posługiwania się programami komputerowymi włączana jest do programów szkolnej edukacji. Stąd zmiana lub nawet próba wybrania po raz pierwszy innego rodzaju produktu wiąże się już nie tylko z potrzebą zmiany przyzwyczajeń, ale i z koniecznością nabycia dużej ilości wiedzy. Jeszcze gorzej wygląda kwestia swobody wyboru przez klientów instytucjonalnych. Wybór oprogramowania które będzie musiało zostać zainstalowane w przedsiębiorstwie będzie ograniczony, jeżeli będzie musiał wiązać się z przeszkoleniem od nowa pracowników, czy zmianą wykorzystywanych urządzeń. Są to szczególne aspekty działania efektu sieci.
Jeszcze większe ograniczenie swobody wyboru i wpływ na umacnianie standardów występuje, kiedy zostają one usankcjonowane decyzjami władz publicznych. Władze oświatowe wprowadzając do programu nauczania obsługę programów komputerowych działających pod określonym systemem operacyjnym w zasadzie skłaniają uczniów, czy ich rodziców do instalacji tego systemu, czy tych programów na komputerach domowych. Decyzja ta ma znaczenie również po ukończeniu nauki i nie tylko dla uczniów. Także przedsiębiorstwa, żeby uniknąć kłopotów z ewentualną koniecznością przeszkolenia pracowników będą musiały preferować ten system i oprogramowanie. W końcu pojawić się może element jeszcze dalej idącej ingerencji państwa, jakim jest zatwierdzenie standardów przesyłania informacji w komunikacji zarówno między instytucjami państwowymi, jak i pomiędzy tymi instytucjami a przedsiębiorstwami.
Jaskrawym przykładem takiej sytuacji jest np. wprowadzenie przez Zakład Ubezpieczeń Społecznych programu „Płatnik“. Jest to program za pomocą którego przedsiębiorcy mogą rozliczać się z ZUS‘em drogą elektroniczną. Teoretycznie zatwierdzony jest jedynie standard przesyłanych informacji. Jednak program ten jest stale uaktualniany w miarę zmian w obowiązujących przepisach. Stąd w zasadzie przedsiębiorcy muszą z niego korzystać, gdyż daje im to gwarancję poprawności rozliczeń. Z pewnością nie rozważalibyśmy tego zagadnienia na gruncie polityki antytrustowej, zwłaszcza, że program ten jest darmowy, gdyby nie fakt, że do korzystania z niego niezbędny jest komercyjny system operacyjny.
Te przykłady mogą budzić wątpliwości co do równego traktowania podmiotów gospodarczych przez władze państwowe. Z pewnością decyzje te ograniczyły wybór konsumentów i wpłynęły korzystnie na interesy jednego z podmiotów. Z drugiej jednak strony ujednolicenie standardu jest zjawiskiem obiektywnym i musi być w jakimś stopniu przez władze publiczne respektowane. Zarówno w pierwszym jak i w drugim przypadku władze musiały dokonać wyboru standardu i dokonały go kierując się kryterium jego powszechności. Poza tym - rzecz jasna - samo ujednolicanie standardu pozostaje zjawiskiem korzystnym obiektywnie, niezależnie od tego w jakim stopniu kontrola nad nim sprawowana przed podmiot gospodarczy jest nadużywana.
Omówione cechy charakterystyczne dziedzin związanych z zaawansowaną technologią wytwarzają nie tylko nowe mechanizmy prowadzące do ich monopolizacji, ale również otwierają możliwości występowania nowych rodzajów zachowań monopolistycznych, w tym zarówno praktyk antykonkurencyjnych jak i eksploatatorskich. W chwili ich pojawienia się ani ustawodawstwo antymonopolowe zupełnie ich nie przewidywało. Próby podejmowania środków zaradczych na jego gruncie wywoływały zatem liczne kontrowersje. Braki te musiały zostać szybko uzupełnione przez doktryny ekonomiczne, które w warunkach pojawienia się nowego rodzaju współzależności musiały określić i zdefiniować nowe rodzaje nadużyć.
Dodatkowo pojawiły się także problemy z właściwym rozpoznaniem wykorzystywania pozycji monopolistycznej z powodu nieadekwatności dotychczas stosowanych metod dla ich oznaczenia. Dla tradycyjnych dziedzin przemysłu jedną z przydatnych metod było posługiwanie się kosztem i użytecznością krańcową. Zasadniczą jednak cechą wyrobów opartych na wysokiej technologii jest stosunkowo duże znaczenie kosztów stałych. Jednak po ich poniesieniu wytworzenie każdej dodatkowej jednostki wiąże się już ze stosunkowo niewielkim kosztem. Zasada ta w najbardziej rzucający się w oczy sposób występuje w przypadku oprogramowania komputerowego. Nie biorąc pod uwagę pomijalnie małych kosztów dostarczenia wytworzonych licencjonowanych kopii, czy analizując nawet przypadek dostarczania ich za pomocą internetu, możemy powiedzieć, że koszty krańcowe dążą wręcz do zera. Każdy producent oprogramowania, nie tylko monopolista, chcąc chociażby odzyskać poniesione koszty stałe, będzie zatem musiał ustalić cenę znacznie powyżej tej wielkości.


Nowe rodzaje praktyki eksploatacyjnych

Podstawowy dotychczas znany rodzaj praktyk eksploatacyjnych w polega na ustalaniu cen na zbyt wysokim poziomie. Powoduje to zmniejszenie się sprzedaży, które jednak jest rekompensowane znacznie zwiększonym zyskiem ze sprzedaży każdej jednostki. W przypadku jednak, gdy występuje efekt sieci, a monopol wynika z kontroli nad standardem, takie zmniejszenie sprzedaży i co za tym idzie użytkowników produktu jest niebezpieczne dla samej podstawy monopolu. Optymalnym zatem rozwiązaniem z punktu widzenia monopolisty byłoby zastosowanie możliwie jak najdoskonalszej dyskryminacji cenowej, po to aby od konsumentów będących w stanie za produkt zapłacić cenę monopolową uzyskać ją w jak największej wysokości, nie zmniejszając przy tym sprzedaży. W przypadku większości innego rodzaju rynków efekt ten można by było osiągnąć w stosunkowo prosty sposób ustalając początkowo wysoką cenę produktu, po to żeby zapłaciła ją część odbiorców, a następnie obniżając, aby uzyskać dodatkowy zysk ze sprzedaży dodatkowych jednostek. Taka praktyka napotyka jednak na zasadnicze trudności w przypadku dużej roli przewidywań konsumentów dla jego kształtowania. Odbiorcy nauczyli się bowiem, że cena ustalona na zbyt wysokim poziomie jest po pewnym czasie obniżana. Wobec zaś szybkich zmian występujących na rynku technologii czas ten jest stosunkowo krótki. Nawet zatem odbiorcy, dla których towar przedstawia relatywnie dużą wartość nie będą skłonni za niego zapłacić zbyt wysokiej ceny. Tym bardziej i tym szybciej producenci zmuszeni byliby cenę tę obniżyć do oczekiwanego poziomu, utwierdzając jednocześnie konsumentów w przekonaniu co do trafności ich przewidywań. Taki mechanizm zwany „pułapką utwierdzających się przewidywań“ na rynku oprogramowania komputerowego działa wyjątkowo skutecznie, zmuszając producentów do ustalania cen od razu na zamierzonym docelowo poziomie. Inne natomiast sposoby administrowania cenami i ich różnicowania wobec poszczególnych odbiorców są stosunkowo kosztowne i rzadko znajdują zastosowanie. Stąd pod względem wysokości cen rynek nawet całkowicie zmonopolizowany może wyglądać bardzo podobnie do rynku na którym panuje konkurencja.
Towary oparte na własności intelektualnej charakteryzują się wyjątkową trwałości. Użytkownik, który nabył jedną kopię programu komputerowego może z niego korzystać przez czas w zasadzie nieograniczony. Stąd programy komputerowe, czy inne towary oparte na kodzie komputerowym stanowią dobra trwałe. Jedynym czynnikiem mogącym w praktyce tę trwałość ograniczyć jest przestarzałość technologiczna lub świadome działanie ich producenta.
Producent specjalizujący się w wytwarzaniu określonego rodzaju oprogramowania, po sprzedaniu pewnej liczby kopii swojego produktu, staje wobec zagrożenia utraty racji bytu. Nie może próbować rozszerzyć rynku poprzez obniżenie cen, ze względu na wspomniany wcześniej mechanizm samoutwierdzających się przewidywań. Klienci na taką obniżkę mogliby zareagować niechęcią do kupowania produktów tego producenta w przyszłości nawet po najniższych gwarantujących opłacalność cenach. Pozostają mu trzy możliwości wyjścia z tej sytuacji. Po pierwsze może on starać się pozyskać nowych użytkowników nie zmieniając ceny. Może również wprowadzić opłaty okresowe za korzystanie z programu. Trzecim zaś sposobem na zapewnienie sobie miejsca na rynku jest tworzenie nowych wersji programu i ich sprzedaż wśród dotychczasowych użytkowników.
Ta trzecia możliwość, najczęściej wybierana, stwarza oczywiste korzyści konsumentom, zapewniając stały postęp w dziedzinie rozwoju oprogramowania. Stwarza jednak równocześnie ogromne pole do popisu dla nieuczciwych praktyk eksploatacyjnych.
Producenci o pozycji dominującej lub monopolistycznej, aby zapewnić sobie sprzedaż kolejnych wersji programu mogą w jego dystrybucjach celowo umieszczać błędy lub nadawać im inne wady, które ujawniają się dopiero w trakcie eksploatacji. Nie muszą one mieć przy tym charakteru wad ukrytych, które zobowiązywałyby producentów do ich nieodpłatnego usuwania. W praktyce jednak bardzo ciężko stwierdzić jest czy program w tego rodzaju wady został wyposażony celowo, tym trudniej zaś wykazać to w postępowaniu dowodowym. Posądzenia takie jednak zdarzają się stosunkowo często i należy przypuszczać, że mogą być zasadne. Przykładem budzącym takie wątpliwości są np. problemy ze współpracą systemów operacyjnych Windows 95, Windows 98 i Windows Millenium z modemami typu ADSL, na których oparta jest np. usługa dostępu do internetu Neostrada Plus świadczona przez Telekomunikację Polską. Tego rodzaju trudności nie występują tymczasem przy użyciu innych systemów operacyjnych, starszych nawet od Windowsa 95. Microsoft długo wzbraniał się przed opracowaniem programu usuwającego tę wadę. Utrzymywanie się tej sytuacji skłaniało użytkowników oprogramowania pracującego w systemie Windows do korzystania z Windows‘a XP, co powinno się wiązać z koniecznością nowego zakupu. Takie postępowanie można porównać z celowym obniżaniem jakości produktów przez producentów dóbr nietrwałych, które w efekcie wymusić ma większy popyt na nie. Jest to celowe ograniczanie żywotności produktu już w chwili jego powstania.
W dziedzinie oprogramowania istnieją jednak inne, bardziej skuteczne sposoby celowego wywoływania wyjścia z użycia produktu przez jego producentów. Mają one charakter o tyle inny od umyślnego wprowadzania do produktu wad, że nie tkwią w samym produkcie w chwili jego sprzedaży, lecz są wywoływane zachowaniem producenta w następnym okresie. Spróbujmy sobie wyobrazić procesor tekstu, który ulega upowszechnieniu. Wraz z nim standardem przenoszenia danych staje się format, którego on używa do zapisu dokumentów. Co się jednak stanie, kiedy producent w następnej wersji programu wprowadzi taką zmianę formatu zapisu, że dokumenty w nim zapisane nie mogą być już odczytywane przez wersję dotychczasową? Użytkownicy nowej wersji programu nie będą odczuwali tego rozwiązania jako wady, lecz ci, którzy chcieliby pozostać przy starej będą mieli coraz więcej trudności z odczytywaniem dokumentów dostarczonych przez inne osoby, lub np. pobranych z internetu. Tu znowu z właściwą oceną tej sytuacji z punktu widzenia polityki antytrustowej nastąpią problemy. Trudno jest bowiem jednoznacznie udowodnić na ile za zmianą formatu przemawiały względy techniczne, na ile zaś jest to próba zmuszenia użytkowników do nabycia nowej wersji programu. Sytuację tę odróżnia od poprzedniej fakt, że producent celowo umniejsza wartości programu korzystając z efektu sieci. Mamy więc do czynienia nie tyle ze strukturą wypieranego produktu, co z manipulacją standardem dokonywaną przez producenta posiadającego nad nim władzę.


Nowe praktyki antykonkurencyjne

Wspomniałem już niejednokrotnie o tym jak ważne dla rynku na którym występuje efekt sieci są przewidywania użytkowników co do dalszego rozwoju wydarzeń. Podobnie jak wpływu na te przewidywania, jaki wywierają podmioty posiadające dominującą pozycję. Jedną z istotniejszych praktyk antykonkurencyjnych może stać się zatem manipulacja informacją, której się takie podmioty mogą dopuszczać. Manipulacja taka najczęściej przybiera formę zapowiedzi wprowadzenia na rynek nowego urządzenia pracującego w standardzie nad którym producent sprawuje kontrolę. Zapowiedzi te mogą dotyczyć np. parametrów technicznych urządzenia, wyprzedzających znacznie parametry urządzeń konkurencyjnych, pracujących w odmiennych standardach kompatybilności. Tego rodzaju oświadczenia wywołują w potencjalnych użytkownikach przeświadczenie nie tyle o wyższości technicznej urządzeń produkowanych i sprzedawanych obecnie przez producenta, co o wyższym stopniu zaawansowania technologicznego całego standartu, a co za tym idzie jego lepszych rokowaniach na przyszłość. O ile oczywiście samo zapowiadanie nowych rozwiązań praktyką antykonkurencyjną nie jest, to może się nią stać, kiedy za pomocą nieprawdziwych lub przedwczesnych informacji producent o pozycji dominującej naumyślnie wywiera wpływ na przewidywania użytkowników.
Podstawowy problem, który wiąże się z oceną rozpowszechniania takich informacji, polega na tym, że skutecznie wywarty za ich pomocą wpływ na zachowania rynku może spowodować, że początkowo nierealne zapowiedzi będą się mogły ziścić. Warunkiem uznania takiej zapowiedzi za praktykę antykonkurencyjną musi być wykazanie, że producent nie byłby w stanie jej zrealizować, gdyby nie wywarty przez niego wpływ. Brak możliwości realizacji zapowiedzi w praktyce wiąże się zaś z opóźnieniem jej realizacji. Dlatego na określenie tego rodzaju praktyk używa się terminu zapowiedzi przedwczesnej.
Jeżeli system, który w wyniku działania efektu sieci stał się standardem, opiera się na komponencie produkowanym przez jednego producenta, producent ten może z łatwością zmusić konsumentów do kupowania także innych przez niego produkowanych komponentów. Wystarczy, że połączy je w pewien sposób z dotychczas produkowanym komponentem, do którego kupna konsumenci byli już zmuszeni i dopuści ich sprzedaż jedynie łącznie. Eliminuje to z rynku innych producentów bez względu na atrakcyjność ceny, czy wyższą jakoś produkowanych przez nich komponentów. Ten rodzaj praktyki antykonkurencyjnej, przypominający w pewnym stopniu sprzedaż wiązaną, może również polegać na nadawaniu dotychczas produkowanemu komponentowi cech lub zastosowań do których dotychczas niezbędny był inny komponent. To z pozoru dobrodziejstwo dla konsumentów sprawia jednak, że tracą oni wybór w zakresie, w jakim dotychczasowy komponent spełnia inne funkcje, a tym samym zmuszeni są po pewnym czasie zwykle płacić za te jego nowe cechy więcej niżby płacili gdyby dokupowali inne komponenty od konkurujących ze sobą producentów.
Monopoliści w dziedzinie standardów nie muszą jednak od razu eliminować producentów innych komponentów, w szczególności jeżeli ich działalność jest potrzebna do utrzymania lub umocnienia standardu. Mogą jednak łatwo zdobyć nad nimi nieuczciwą przewagę na rynku tych komponentów nie ujawniając pewnych właściwości standardu. Konsumenci odczuwają lepsze działanie innych komponentów dostarczanych przez producenta standardu i są skłonni je preferować. Równocześnie rośnie w nich przekonanie o lepszej marce monopolisty. Tymczasem przewaga wynika z tego, że inni producenci zmuszeni są respektować standard monopolisty nie mając równocześnie o nim pełnych informacji. Monopolista zaś nie wytwarza produktów lepszej jakości, lecz raczej powoduje niższą jakość konkurencyjnych produktów utrzymując rynek w sztucznym „zacofaniu“.
Przewaga ta może być wykorzystywana zarówno do prowadzenia systematycznej eksploatacji, jak i do podejmowania interwencji w obronie standardu.
Interwencja taka zaś polega najczęściej na sabotowaniu prób przełamywania ograniczeń związanych z przenoszeniem danych lub innych komponentów pomiędzy dominującym standardem a innymi. Może to następować za pomocą wszystkich z opisanych tu praktyk antykonkurencyjnych, tj. manipulacji informacją, włączania komponentów oraz wykorzystywania nieujawnionych informacji. Monopolista może także modyfikować standard w celu zwiększenia niekompatybilności zanim dojdzie do migracji innych danych lub innych komponentów do innych standardów. Ostatecznie może także przejmować konkurencję za pomocą fuzji, które chociaż tylko w nieznaczny sposób modyfikują jego udziały w rynku, to eliminują potencjalnie bardzo niebezpieczną konkurencję, lub zagrożenie dla jego kontroli nad standardem.


Charakterystyka rozwoju rynku komputerów osobistych

Pierwsze komputery pojawiły się w latach 40-tych. Jednak przez dziesiątki lat były to niezwykle kosztowne urządzenia, których rynek był ograniczony do przedsiębiorstw i instytucji państwowych. Zarówno ich stopień technicznego zaawansowania, rozpowszechnienie, jak i sposób powstawania oprogramowania nie pozwalały na dostrzeżenie zjawisk, które występują obecnie. Pierwsze przenośne komputery pojawiać się w latach 70-tych i początkowo określane były mianem mikrokomputerów. Rynek mikrokoputerów zaczął wykazywać skłonność do standaryzacji, która objawiała się pojawieniem się tak zwanych „platform“. Platforma związana była zwykle z firmą wprowadzającą na rynek określony rodzaj mikrokomputera. Składał się na nią specyficzny sprzęt oraz system operacyjny. Mikrokomputery nie posiadały zwykle budowy modułowej. Ich producenci dostarczali gotowy system, który rzadko był modyfikowany przez użytkowników. Komputery należące do różnych platform nie były ze sobą kompatybilne. Jednak wielość platform zmuszała ich producentów do intensywnej konkurencji.
Wraz z sukcesem niektórych rozwiązań i ich upowszechnianiem się pojawiła się idea komputerów kompatybilnych z określoną platformą, produkowanych jednak przez innych producentów. Np. firma Timex wprowadziła w latach 80‘tych na rynek mikrokomputery kompatybilne z ZX Spectrum, produkowane przez angielską firmę Sinclair. Także w Polsce podjęto produkcję mikrokomputerów Meritum, a następnie Elwro Junior, które również były kompatybilne z ZX Spectrum. Takie rozwiązanie przynosiło korzyści w szczególności mniejszym producentom, w postaci możliwości uruchamiania na tych komputerach znacznej ilości istniejącego oprogramowania. Zostało ono popularnie nazwane „klonowaniem“ komputerów, zaś komputery produkowane jako kompatybilne określane były „klonami“ ze względu na podobieństwo do pierwowzorów.
Oprócz mikrokomputerów zaczęły pojawiać się również tzw. komputery osobiste i domowe. Upowszechniały się w latach 80-tych, a zwłaszcza pod koniec tej dekady. Komputery osobiste dysponowały zwykle większą mocą obliczeniową i lepszymi osiągami graficznymi, co predysponowało je do zadań, do których często wykorzystywane są już dzisiejsze generacje komputerów. Wśród nich coraz silniejszą pozycję uzyskiwały komputery kompatybilne z IBM PC, które później zaczęły być określane coraz częściej jako po prostu PC. Początkowo na rynku komputerów osobistych utrzymywał się podział na platformy, który miał jeszcze stosunkowo duże znaczenie na początku lat dziewięćdziesiątych. W Stanach Zjednoczonych oprócz komputerów kompatybilnych z IBM PC popularność zdobywały komputery firmy Apple, która zadebiutowała jeszcze w połowie lat 80‘tych modelem Macintosh. W Europie natomiast upowszechniały się szesnastobitowe komputery Atari serii ST/TT oraz bardziej wyspecjalizowane z zadaniach domowych Commodore Amiga.
Jednak początek lat dziewięćdziesiątych przyniósł nie tylko znaczne, ale i zdumiewające przemiany. Komputery kompatybilne z IBM PC zaczęły stosunkowo szybko wypierać należące do pozostałych platform, zdobywając nie tylko rynek komputerów osobistych, ale także wkraczając do zastosowań domowych. Można by uznać, że w zasadzie nie ma niczego szczególnego w wypieraniu jednych standardów przez inne. Jednak tym, co zwracało uwagę wielu obserwatorów był fakt, że zjawisku temu towarzyszył regres techniczny.
Komputery należące do wypieranych platform były wyposażone w pod wieloma względami bardziej zaawansowane rozwiązania. Posiadały systemy graficznej prezentacji danych oparte na oknach. W ich standardzie od wielu lat znajdowała się wprowadzona po raz pierwszy przez Apple Computer w roku 1984 mysz. Komputery Apple, Atari, czy Amiga posiadały od początku karty dźwiękowe. Wyposażone były także w układy wspomagające animację obrazu. Potrafiły także generować obrazy lepszej jakości, zarówno pod względem ilości barw na ekranie (Amiga) jak i stabilniejsze o wysokich rozdzielczościach i bardzo cenionych dzisiaj parametrach dotyczących częstotliwości odświeżania ekranu (Atari ST, Macintosh). Opanowały także wprowadzoną dla standardu PC znacznie później wielozadaniowość, wcześniej znaną jedynie w przypadku niezwykle kosztownych stacji roboczych. Na ich tle nowy zdobywca rynku wyglądał dużo skromniej. Komputery kompatybilne z PC nie posiadały tak zaawansowanych jak na owe czasy rozwiązań graficznych. W powszechnym użyciu nie występowały karty muzyczne. Obsługa tych komputerów następowała głównie za pomocą klawiatury, a system MS DOS pozwalał na wykonywanie tylko jednego zadania w tym samym czasie. Moc obliczeniowa IBM PC XT/AT również ustępowała komputerom opartym na procesorach Motorolla 68000/030.
Można się zatem zastanowić co skłoniło konsumentów do nabywania komputerów droższych i mniej efektywnych. Cała tajemnica wydaje się tkwić w oczekiwaniach dotyczących dalszego rozwoju wydarzeń. IBM był bowiem producentem komputerów należących do innej kategorii, tzw. komputerów profesjonalnych. Również komputery osobiste, zarówno produkowane przez IBM‘a, jak i ich klony posiadały budowę modułową, tzn. składały się z wymienialnych komponentów i przewidziane były do rozbudowy. Dysponowanie przez IBM technologiami stosowanymi w znacznie droższych rodzajach komputerów pozwoliło mu anonsować wykorzystanie tych rozwiązań także w dziedzinie komputerów osobistych. Potencjalni nabywcy komputerów o budowie modułowej mogli spodziewać się, że zapowiadane przez firmę rozwiązania przyszłościowe mogą niedługo znaleźć zastosowanie w ich komputerach, pomimo tego, że nie są jeszcze dostępne w chwili zakupu. Dodatkowo oczekiwania te umacniała silna pozycja IMB‘a na rynku, której początkowo nie osłabiło ujawnienie przez firmę standardu PC, a który to standard dzięki ujawnieniu stawał się coraz bardziej powszechny. Pierwszym rodzajem klientów, który preferował taki rodzaj komputerów byli klienci instytucjonalni. Duże przedsiębiorstwa, urzędy, czy uczelnie wprowadzały masowo jeszcze IBM‘y XT, spodziewając się, że będzie je można w przyszłości łatwo rozbudowywać. W chwili zaś kiedy standard ten zaczął się upowszechniać i zdobył sobie opinię profesjonalnego, efekt samoutwierdzających się oczekiwań zaczął funkcjonować. IBM PC stał się również dość szybko standardem szkolnym, wypierając wcześniej upowszechnione na tym gruncie komputery ZX Spectrum. Powodowało to często preferowanie przez rodziców uczniów tego standardu oraz umacnianie się przyzwyczajeń. Podsumowując chciałbym zwrócić uwagę na to, że w tej rewolucji, jaką wywołały komputery PC w początku lat 90-tych, pomimo posiadania przez nie także niewątpliwych zalet takich jak jawność standardu, czy modułowa budowa, głównym motorem były jednak oczekiwania konsumentów podsycane umiejętnie podawanymi informacjami.
Można by przypuszczać, że skoro standard PC nie należał już do IBM‘a to problem ewentualnej monopolizacji rynku związanej z jego upowszechnieniem się stracił na znaczeniu. Tak się jednak nie stało. Chociaż komputery PC produkować mógł każdy, to jednak najważniejszym podzespołem tych komputerów był procesor główny produkowany przez Intel‘a. Intel posiadał wyłączność produkcję procesorów z serii x86. Stąd zyskał on stosunkowo najwięcej na upowszechnieniu się standardu. Wraz ze wzrostem zapotrzebowania na te procesory jednak Intel zaczął zezwalać w drodze umowy na produkcję procesorów kompatybilnych innym firmom, w tym Advanced Micro Design (AMD). Zawarta z w 1982 roku umowa nie tylko zezwalała tej firmie na produkcję procesorów całkowicie kompatybilnych, ale także na użycie w nich mikrokodu opracowanego przez Intel, czyli specyficznego oprogramowania wewnętrznego mikroprocesorów. Wprowadzając jednak nowy procesor, znany jako i386 Intel postanowił zrezygnować ze współpracy z AMD. Firma Advanced Micro Design zareagowała na to posunięcie wprowadzeniem własnego procesora pod nazwą Amd386, będącego także kontynuacją 80286 i zachowującego z nim kompatybilność.
Rozpoczęła się wtedy batalia prawna, która chociaż nie była bezpośrednio związana z postępowaniem antymonopolowym, to miała znaczenie kluczowe dla ewentualnego zachowania monopolu Intela na produkcję procesorów uznawanych za standard używany do produkcji komputerów PC. Rozstrzygając tę sprawę w roku 1994 sąd uznał, że umowa zawarta 12 lat wcześniej uprawniała AMD do produkcji procesorów zawierających mikrokod wewnętrzny opracowany przez Intel, jednak dotyczyło to klonów mikroprocesora 286 i nie powinno być rozciągane na następne produkty. Sąd nie przychylił się do podniesionego przez Intel zarzutu naruszenia marki handlowej. Uznał, że oznaczenie procesora jako 386 nie narusza prawa Intel Corporation, gdyż numer jest oznaczeniem zbyt pospolitym, żeby mógł podlegać ochronie prawnej. W międzyczasie zaś weszła na rynek nowa generacja procesorów, oznaczanych jako 486. Intel i AMD porozumiały się już poza sądem co do wykorzystania mikrokodu Intela do ich produkcji przez AMD.
Niebawem jednak problem marki handlowej powrócił, a to za sprawą użycia przez AMD nazwy Pentium na oznaczenie kolejnej generacji procesorów. Tym razem nie chodziło już o pospolity numer, lecz o zastrzeżoną nazwę własną. AMD przegrał sprawę sądową i zmuszony został do użycia nazwy K6 na oznaczanie swoich przyszłych wyrobów. Pomimo odnoszenia przez Intel zwycięstw na drodze prawnej, zaczynało się jednak stawać jasne, że ewentualny monopol w dziedzinie produkcji procesorów znajdujących zastosowanie w komputerach w standardzie PC traci rację bytu. O ile bowiem decyzja sądowa potwierdziła prawa Intela do mikrokodu wewnętrznego opracowanego jeszcze dla procesorów 286, to do budowy procesorów kompatybilnych kod ten nie był koniecznie potrzebny.
Współczesny rynek sprzętu komputerowego charakteryzuje się wielością zarówno producentów gotowych komputerów osobistych, jak i producentów ich komponentów. Dawne różnice pomiędzy komputerami profesjonalnymi a osobistymi zacierają się z powodu szybkiego postępu technicznego, który sprawia, że rozwiązania do niedawna kosztowne mogą po krótkim czasie zostać wprowadzone na rynek masowy. Zdecydowanie najpopularniejszym standardem sprzętu stały się komputery PC. Zarówno IBM, jak i Intel utrzymują się na rynku cieszą się dobrą marką. Jednak nie wyznaczają już one standardów w sposób, jaki czyniły to dawniej. Nikt już nie określa komputerów PC jako zgodnych z IBM‘em. Również procesory Intela nie wyznaczają już standardów zgodności.
Z pozostałych, odmiennych standardów komputerów utrzymuje się natomiast Macintosh, który jednak jest znacznie mniej popularny. Istnieją również stacje robocze SUN. Jednak lawinowy postęp jaki dokonuje się ciągle w dziedzinie sprzętu zmienił również sposób programowania komputerów. O ile programy kiedyś pisane były dla konkretnych rozwiązań sprzętowych, to tworzone obecnie unikają tego. Posługują się tzw. sterownikami, czyli podprogramami odpowiedzialnymi za pracę określonych podzespołów. Sterowniki są na ogół tworzone przez producentów podzespołów i dostarczane razem z nimi. Wzrosła także niewspółmiernie rola systemu operacyjnego. Specyfika oprogramowania decydująca o możliwości jego przenoszenia zaczęła być związana bardziej z systemami operacyjnymi, niż z konkretnym sprzętem. Można na ogół z łatwością przenieść program napisany dla systemu operacyjnego Linux pomiędzy jego komputerem PC a np. stacją SUN, na której jest uruchomiona ta sama dystrybucja systemu operacyjnego. Znacznie trudniej jest natomiast przenosić oprogramowanie pomiędzy różnymi systemami, nawet jeśli działają one na identycznym sprzęcie. Zmiany te aktywizują i pobudzają konkurencję na rynku sprzętu komputerowego. Mogą jednak stać się źródłem nowego rodzaju monopolu związanego ze sprawowaniem kontroli nad standardem - tj. systemem operacyjnym.

Podsumowanie

Rozwój XX-wiecznego kapitalizmu monopolistycznego cechował się stałym wzrostem znaczenia kapitału trwałego w stosunku do kapitału obrotowego przedsiębiorstw. Zjawisko to sprzyjało umacnianiu się monopolu, bądź innych, bardziej subtelnych form władzy rynkowej, stwarzało bowiem rosnące bariery wejścia dla nowych podmiotów.
Tzw. nowa ekonomia wydawała się burzyć tę zasadę poprzez odwrócenie proporcji obydwu rodzajów kapitału. Okazało się jednak, że na rynku zaawansowanej technologii zachodzą potężne zjawiska sprzyjające umacnianiu się monopolu i zarazem dające nowy impuls do jego rozwoju. Pojawienie się efektu sieci i idąca za nim potrzeba standaryzacji rozwiązań technologicznych, spowodowały powstanie nowego źródła umacniania się monopolu, jakim stała się kontrola nad standardem.
Znane od początku wieku prawa ekonomii produkcji masowej w dziedzinach „nowej ekonomii” ujawniły się ze szczególną potęgą. Koszt krańcowy produktów „nowej ekonomii”, wobec pomijalnych tu kosztów jednostkowych, zaczął coraz bardziej zbliżać się do zera. Użyteczność krańcowa zaczęła wymagać zaczęła jak największej, najlepiej nieograniczonej liczby odbiorców.
Zauważyć można narastającą, krzyczącą wręcz sprzeczność pomiędzy efektywnością wykorzystania potencjału stwarzanej technologii, a dążeniem monopolu do zawładnięcia i wręcz stłumienia tych możliwości w imię utrzymania nad tym potencjałem kontroli.
Nie sposób nie wielkiego oporu na jaką natrafia próba zaprowadzenia instytucji własności prywatnej, w postaci tzw. „własności intelektualnej”, rozumianej jako własność przemysłowa. Instytucja ta, w najwidoczniejszy sposób sztuczna, ograniczająca użyteczność stwarzanej technologii oraz ze względów technicznych bardzo trudna do wyegzekwowania, jest powszechnie nierespektowana.
Sprzeczności te będą musiały mieć coraz większe znaczenie ze względu na coraz większe znaczenie przemysłów tzw. nowej ekonomii. Z pewnością nie da się ich rozwiązać na gruncie instytucji kapitalistycznych.