Tekst pochodzi z Forum Dyskusyjnego LBC http://users.nethit.pl/forum/read/fdlbc/2874351/ . Autor jest przewodniczącym Komunistycznej Partii Polski
Marcin Adam
“Nowa ekonomia“ i jej charakterystyczne cechy
Intensywny rozwój techniki pod koniec XX wieku i jego wpływ
na nową jakość zjawisk ekonomicznych stał się obiektem szczególnego
zainteresowania prawników i ekonomistów zajmujących się polityką antytrustową.
Richard A.Posner wprowadza pojęcie „nowej ekonomii“ jako wynik oddziaływania na
współczesną gospodarkę trzech wielkich czynników. Pierwszym jest rynek
oprogramowania komputerowego i powstanie specyficznego przemysłu związanego z
jego produkcją. Drugim internet i działalność na tym polu przedsiębiorstw
zajmujących się udostępnianiem połączeń z internetem, prowadzących portale
internetowe oraz tworzących zawartość udostępnianych przez internet serwisów.
Trzecim natomiast przemysł związany z wytwarzaniem środków łączności oraz
sprzętu komputerowego na użytek obydwu poprzednich dziedzin. Dziedziny te
odróżniają się w zauważalny sposób od pozostałych, w szczególności od związanych
z wytwarzaniem dóbr rozumianych tradycyjnie jako przedmioty materialne.
W przypadku przemysłów tradycyjnych produkcję charakteryzuje wieloetapowość i
często wielość zaangażowanych w nią na różnych etapach podmiotów. Skala
produkcji jest ograniczona jest zarówno poziomem mocy produkcyjnych, jak i
możliwościami poniesienia przez przedsiębiorstwo kosztów związanych z jej
zwiększeniem. Produkcja wymaga zaangażowania znacznej wielkości kapitału
trwałego. Rynki zachowują się w sposób stosunkowo stabilny, a wchodzenie i
wychodzenie podmiotów jest rzadkie. Postęp odbywa się stopniowo.
Tymczasem główną cechą charakteryzującą dziedziny „nowej ekonomii“ jest brak
większości tych czynników. Głównym występującym w nich „produktem” jest własność
intelektualna, występująca przede wszystkim w postaci kodu komputerowego.
Dotyczy to zarówno oprogramowania komputerowego, jak i zawartości stron
internetowych w których informacja również zostaje przetworzona na kod. Wreszcie
przemysły wytwarzające podzespoły komputerowe i środki łączności bazują przede
wszystkim na technologii produkcji, a więc również na własności intelektualnej.
We wszystkich tych dziedzinach występuje bardzo niski koszt jednostkowy dający w
zasadzie nieograniczoną możliwość zwiększania skali produkcji. Nakłady kapitału
w postaci środków trwałych nie odgrywają tak zasadniczej roli, wchodzenie więc
na rynek podmiotów jak i ich eliminacja następuje więc stosunkowo szybko i
często. Wreszcie postęp występuje na niespotykaną dotąd skalę wywołując wielką
dynamikę tego rynku.
Efekt sieci
Nowym i charakterystycznym dla produktów zaawansowanej technologii zjawiskiem
jest tzw. „efekt sieci“. Jest on silnie związany z kompatybilnością, czyli
zgodnością pewnych standardów technicznych. Najłatwiej efekt ten zilustrować na
przykładzie sieci komunikacyjnej, skąd z resztą wywodzi się jego nazwa. Jeżeli
użytkownik urządzenia do komunikowania się chce się porozumieć z innym
użytkownikiem, niezbędne jest aby również jego urządzenie spełniało ten sam
standard. Jeżeli urządzenie takie służy do komunikowania się z nieokreśloną
liczbą osób, to jego atrakcyjność będzie w przeważającej mierze zależała od tego
ile osób będzie z niego korzystać.
Efekt sieci może także wystąpić bez elementu bezpośredniej komunikacji między
użytkownikami. Jeżeli chcemy np. użyć określonego programu komputerowego, musimy
posiadać system komputerowy, do pracy na którym program ten został
przystosowany. Im większa liczba osób posiada systemy komputerowe w takim samym
standardzie, tym większa ilość programów będzie dla niego powstawać, i tym samym
użyteczność tego standardu będzie wzrastać. Efekt ten równie dobrze dotyczyć np.
kart płatniczych i systemów przeznaczonych do realizacji transakcji za ich
pomocą. Możemy mieć z nim do czynienia w przypadku wszelkich produktów
związanych z przetwarzaniem i wymianą danych. Jego istota polega na tym, że
użyteczność każdej jednostki produktu staje się tym większa, im większa jest
liczba użytkowników produktu spełniającego ten sam standard.
Samoutwierdzające się oczekiwania
Jak już wspomniałem jednak, rynek nowoczesnych technologii charakteryzuje się
bardzo intensywnym postępem i związanymi z nim szybkimi zmianami. Stąd, z punktu
widzenia konsumentów, ocena użyteczności określonego produktu zależy nie tyle od
obecnej ilości jego użytkowników, co od przewidywań dotyczących możliwości jego
upowszechnienia się w przyszłości. Przewidywania te mają znacznie większe
znaczenie niż konkretne zalety określonego standardu, czy nawet stopień jego
zaawansowania technicznego. Cechy te schodzą na dalszy plan wobec zagrożenia
możliwością jego nie przyjęcia się w ogóle.
Z punktu widzenia zaś producentów możliwość wzbudzenia w potencjalnych
konsumentach określonych oczekiwań co do upowszechnienia produktu staje się
ważniejsza zarówno od jakości zaspakajania przez ten produkt potrzeb, jak i od
jego ceny. Głównym natomiast czynnikiem wpływającym na te oczekiwania jest
przeświadczenie konsumentów o sile rynkowej producenta. Mechanizm ten potęguje
władzę rynkową, sprawiając, że podmioty już ją posiadające uzyskują jej coraz
więcej. Uniemożliwia też konkurowanie na rynku producentom o słabszej pozycji,
gdyż ich produkty przestają być atrakcyjne i to bez względu na oferowaną przez
nich jakość oraz cenę. Efekt sieci wpływa zatem tak dalece na kryteria, którymi
muszą kierować się konsumenci, że może nawet całkowicie wyeliminować mechanizmy
konkurencyjne.
Innym zjawiskiem silnie związanym z kompatybilnością jest występowanie systemów.
Zachodzi ono wtedy, kiedy do działania określonych produktów potrzebne jest
korzystanie przez użytkownika z dwóch lub większej ich ilości, czyli
współpracujących ze sobą komponentów systemu. Na przykład, aby korzystać z
system zapisu obrazu VHS potrzebne są dwa komponenty: kaseta wideo oraz
magnetowid. Obydwa muszą oczywiście odpowiadać standardowi VHS. Większa ilość
komponentów występuje w systemach komputerowych. Tutaj możemy mówić zarówno o
zgodności oprogramowania ze sprzętem, jak i o zgodności komponentów tak samego
sprzętu, jak i oprogramowania. Przeciętny system komputerowy składa się bowiem z
płyty głównej, procesora, karty graficznej, dźwiękowej, klawiatury, monitora
itd. W warstwie programowej tworzyć go może natomiast system operacyjny,
środowisko graficzne oraz różnego rodzaju biblioteki procedur, aż wreszcie
działające na nim inne rodzaje oprogramowania, które korzystają ze wcześniej
wymienionych komponentów. Każdy z tych elementów może być wytwarzany przez
innego producenta, jednak wszystkie one muszą spełniać określone standardy
zgodności.
W poprzednio omawianym przypadku, kiedy opisywałem istotę efektu sieci,
kompatybilność dotyczyła całych urządzeń lub systemów i wywoływała pewne relacje
pomiędzy producentami a konsumentami. Efekt systemu, wynikający się z
kompatybilności poszczególnych komponentów wiąże natomiast ze sobą w podobny
sposób producentów. Producenci muszą się bowiem porozumiewać, po to, by
produkowane przez nich komponenty tego samego systemu zachowywały zgodność. Mogą
oni ustanawiać standardy otwarte, czyli takie, którym odpowiadające technologie
może wytwarzać każdy producent. Standardy te mogą jednak zostać opanowane
również przez pojedynczych producentów lub być chronione prawami patentowymi.
Tego rodzaju standardy mogą powstawać przy braku porozumienia lub w sytuacji,
kiedy jeden z producentów wyprzedza konkurentów w rozwoju technologii w stopniu,
który umożliwia mu samodzielne ich ustanawianie. Mogą zostać również
przeforsowane forsowanie, gdy kilku producentów wprowadza równocześnie swoje
standardy i usiłuje je rozpowszechnić i wypierając standardy ustanowione przez
konkurentów. Porozumienia dotyczące standardów otwartych nie powinny budzić obaw
z punktu widzenia polityki antytrustowej. Przynoszą one korzyści zarówno
konsumentom jak i producentom. Standardy zamknięte mogą się jednak stać źródłem
nadużyć eksploatacyjnych. Dlatego wszelkie porozumienia między grupami
producentów w celu ustanawiania standardów zamkniętych lub eliminacji innych
standardów, w szczególności eliminacji standardów otwartych, mogą mieć charakter
zmowy monopolistycznej lub praktyki antykonkurencyjnej zmierzającej do
wyeliminowania konkurencji.
Warto jeszcze przyjrzeć się zjawisku kompatybilności pomiędzy różnymi systemami.
Możemy powiedzieć, że są one kompatybilne, kiedy możemy je wykorzystać zamiennie
przy użyciu tych samych danych. System Video8 jest kompatybilny z systemem VHS,
ponieważ możemy pomiędzy nimi w miarę swobodnie przenosić nagrania.
Kompatybilność jednak nie zawsze jest całkowita. Możemy mieć do czynienia z
kompatybilnością częściową, kiedy np. tylko niektóre dane opracowane dla jednego
systemu nadają się do użycia na innym, lub kiedy wykorzystanie danych opracowany
dla jednego systemu wiąże się ze zmniejszeniem ich użyteczności przy ich użyciu
na innym. Kompatybilność częściowa może wystąpić np. pomiędzy różnymi
komputerowymi systemami operacyjnymi należącymi jednak do tej samej rodziny.
Niektóre programy napisane dla jednej dystrybucji Unixa mogą zostać uruchomione
pod inną, jednakże nie wszystkie. Nagrania dźwiękowe z płyt winylowych mogą być
przenoszone na kasety magnetofonowe lub płyty kompaktowe. Jednak przeniesienie
nagrania z płyty kompaktowej na kasetę będzie związane ze stratą jakości.
Kompatybilność zarówno całkowita, jak i częściowa, może zachodzić także w jedną
lub w obie strony. Programy napisane dla systemu MS DOS mogą być dzięki trybowi
emulacji uruchamiane pod systemem Windows. Można zatem powiedzieć, że między
tymi systemami zachodzi kompatybilność w jedną stronę.
W dziedzinach zaawansowanej technologii wytwarza się pewien szczególny rodzaj
przywiązania konsumentów do produktu. O ile bowiem w przypadku większości
tradycyjnych artykułów możemy mówić na ogół o przyzwyczajeniu konsumentów do
określonej marki, czy innych jego właściwości, to w przypadku produktów wysokiej
technologii ta relacja zaczyna nabierać szczególnego charakteru. Posługiwanie
się urządzeniami technicznymi, czy oprogramowaniem komputerowym wymaga często
nie tylko zwykłego doświadczenia, ale wręcz szczególnej wiedzy, nabycie której
wiąże się z wymiernymi kosztami. Nauka posługiwania się programami komputerowymi
włączana jest do programów szkolnej edukacji. Stąd zmiana lub nawet próba
wybrania po raz pierwszy innego rodzaju produktu wiąże się już nie tylko z
potrzebą zmiany przyzwyczajeń, ale i z koniecznością nabycia dużej ilości
wiedzy. Jeszcze gorzej wygląda kwestia swobody wyboru przez klientów
instytucjonalnych. Wybór oprogramowania które będzie musiało zostać
zainstalowane w przedsiębiorstwie będzie ograniczony, jeżeli będzie musiał
wiązać się z przeszkoleniem od nowa pracowników, czy zmianą wykorzystywanych
urządzeń. Są to szczególne aspekty działania efektu sieci.
Jeszcze większe ograniczenie swobody wyboru i wpływ na umacnianie standardów
występuje, kiedy zostają one usankcjonowane decyzjami władz publicznych. Władze
oświatowe wprowadzając do programu nauczania obsługę programów komputerowych
działających pod określonym systemem operacyjnym w zasadzie skłaniają uczniów,
czy ich rodziców do instalacji tego systemu, czy tych programów na komputerach
domowych. Decyzja ta ma znaczenie również po ukończeniu nauki i nie tylko dla
uczniów. Także przedsiębiorstwa, żeby uniknąć kłopotów z ewentualną
koniecznością przeszkolenia pracowników będą musiały preferować ten system i
oprogramowanie. W końcu pojawić się może element jeszcze dalej idącej ingerencji
państwa, jakim jest zatwierdzenie standardów przesyłania informacji w
komunikacji zarówno między instytucjami państwowymi, jak i pomiędzy tymi
instytucjami a przedsiębiorstwami.
Jaskrawym przykładem takiej sytuacji jest np. wprowadzenie przez Zakład
Ubezpieczeń Społecznych programu „Płatnik“. Jest to program za pomocą którego
przedsiębiorcy mogą rozliczać się z ZUS‘em drogą elektroniczną. Teoretycznie
zatwierdzony jest jedynie standard przesyłanych informacji. Jednak program ten
jest stale uaktualniany w miarę zmian w obowiązujących przepisach. Stąd w
zasadzie przedsiębiorcy muszą z niego korzystać, gdyż daje im to gwarancję
poprawności rozliczeń. Z pewnością nie rozważalibyśmy tego zagadnienia na
gruncie polityki antytrustowej, zwłaszcza, że program ten jest darmowy, gdyby
nie fakt, że do korzystania z niego niezbędny jest komercyjny system operacyjny.
Te przykłady mogą budzić wątpliwości co do równego traktowania podmiotów
gospodarczych przez władze państwowe. Z pewnością decyzje te ograniczyły wybór
konsumentów i wpłynęły korzystnie na interesy jednego z podmiotów. Z drugiej
jednak strony ujednolicenie standardu jest zjawiskiem obiektywnym i musi być w
jakimś stopniu przez władze publiczne respektowane. Zarówno w pierwszym jak i w
drugim przypadku władze musiały dokonać wyboru standardu i dokonały go kierując
się kryterium jego powszechności. Poza tym - rzecz jasna - samo ujednolicanie
standardu pozostaje zjawiskiem korzystnym obiektywnie, niezależnie od tego w
jakim stopniu kontrola nad nim sprawowana przed podmiot gospodarczy jest
nadużywana.
Omówione cechy charakterystyczne dziedzin związanych z zaawansowaną technologią
wytwarzają nie tylko nowe mechanizmy prowadzące do ich monopolizacji, ale
również otwierają możliwości występowania nowych rodzajów zachowań
monopolistycznych, w tym zarówno praktyk antykonkurencyjnych jak i
eksploatatorskich. W chwili ich pojawienia się ani ustawodawstwo antymonopolowe
zupełnie ich nie przewidywało. Próby podejmowania środków zaradczych na jego
gruncie wywoływały zatem liczne kontrowersje. Braki te musiały zostać szybko
uzupełnione przez doktryny ekonomiczne, które w warunkach pojawienia się nowego
rodzaju współzależności musiały określić i zdefiniować nowe rodzaje nadużyć.
Dodatkowo pojawiły się także problemy z właściwym rozpoznaniem wykorzystywania
pozycji monopolistycznej z powodu nieadekwatności dotychczas stosowanych metod
dla ich oznaczenia. Dla tradycyjnych dziedzin przemysłu jedną z przydatnych
metod było posługiwanie się kosztem i użytecznością krańcową. Zasadniczą jednak
cechą wyrobów opartych na wysokiej technologii jest stosunkowo duże znaczenie
kosztów stałych. Jednak po ich poniesieniu wytworzenie każdej dodatkowej
jednostki wiąże się już ze stosunkowo niewielkim kosztem. Zasada ta w
najbardziej rzucający się w oczy sposób występuje w przypadku oprogramowania
komputerowego. Nie biorąc pod uwagę pomijalnie małych kosztów dostarczenia
wytworzonych licencjonowanych kopii, czy analizując nawet przypadek dostarczania
ich za pomocą internetu, możemy powiedzieć, że koszty krańcowe dążą wręcz do
zera. Każdy producent oprogramowania, nie tylko monopolista, chcąc chociażby
odzyskać poniesione koszty stałe, będzie zatem musiał ustalić cenę znacznie
powyżej tej wielkości.
Nowe rodzaje praktyki eksploatacyjnych
Podstawowy dotychczas znany rodzaj praktyk eksploatacyjnych w polega na
ustalaniu cen na zbyt wysokim poziomie. Powoduje to zmniejszenie się sprzedaży,
które jednak jest rekompensowane znacznie zwiększonym zyskiem ze sprzedaży
każdej jednostki. W przypadku jednak, gdy występuje efekt sieci, a monopol
wynika z kontroli nad standardem, takie zmniejszenie sprzedaży i co za tym idzie
użytkowników produktu jest niebezpieczne dla samej podstawy monopolu. Optymalnym
zatem rozwiązaniem z punktu widzenia monopolisty byłoby zastosowanie możliwie
jak najdoskonalszej dyskryminacji cenowej, po to aby od konsumentów będących w
stanie za produkt zapłacić cenę monopolową uzyskać ją w jak największej
wysokości, nie zmniejszając przy tym sprzedaży. W przypadku większości innego
rodzaju rynków efekt ten można by było osiągnąć w stosunkowo prosty sposób
ustalając początkowo wysoką cenę produktu, po to żeby zapłaciła ją część
odbiorców, a następnie obniżając, aby uzyskać dodatkowy zysk ze sprzedaży
dodatkowych jednostek. Taka praktyka napotyka jednak na zasadnicze trudności w
przypadku dużej roli przewidywań konsumentów dla jego kształtowania. Odbiorcy
nauczyli się bowiem, że cena ustalona na zbyt wysokim poziomie jest po pewnym
czasie obniżana. Wobec zaś szybkich zmian występujących na rynku technologii
czas ten jest stosunkowo krótki. Nawet zatem odbiorcy, dla których towar
przedstawia relatywnie dużą wartość nie będą skłonni za niego zapłacić zbyt
wysokiej ceny. Tym bardziej i tym szybciej producenci zmuszeni byliby cenę tę
obniżyć do oczekiwanego poziomu, utwierdzając jednocześnie konsumentów w
przekonaniu co do trafności ich przewidywań. Taki mechanizm zwany „pułapką
utwierdzających się przewidywań“ na rynku oprogramowania komputerowego działa
wyjątkowo skutecznie, zmuszając producentów do ustalania cen od razu na
zamierzonym docelowo poziomie. Inne natomiast sposoby administrowania cenami i
ich różnicowania wobec poszczególnych odbiorców są stosunkowo kosztowne i rzadko
znajdują zastosowanie. Stąd pod względem wysokości cen rynek nawet całkowicie
zmonopolizowany może wyglądać bardzo podobnie do rynku na którym panuje
konkurencja.
Towary oparte na własności intelektualnej charakteryzują się wyjątkową
trwałości. Użytkownik, który nabył jedną kopię programu komputerowego może z
niego korzystać przez czas w zasadzie nieograniczony. Stąd programy komputerowe,
czy inne towary oparte na kodzie komputerowym stanowią dobra trwałe. Jedynym
czynnikiem mogącym w praktyce tę trwałość ograniczyć jest przestarzałość
technologiczna lub świadome działanie ich producenta.
Producent specjalizujący się w wytwarzaniu określonego rodzaju oprogramowania,
po sprzedaniu pewnej liczby kopii swojego produktu, staje wobec zagrożenia
utraty racji bytu. Nie może próbować rozszerzyć rynku poprzez obniżenie cen, ze
względu na wspomniany wcześniej mechanizm samoutwierdzających się przewidywań.
Klienci na taką obniżkę mogliby zareagować niechęcią do kupowania produktów tego
producenta w przyszłości nawet po najniższych gwarantujących opłacalność cenach.
Pozostają mu trzy możliwości wyjścia z tej sytuacji. Po pierwsze może on starać
się pozyskać nowych użytkowników nie zmieniając ceny. Może również wprowadzić
opłaty okresowe za korzystanie z programu. Trzecim zaś sposobem na zapewnienie
sobie miejsca na rynku jest tworzenie nowych wersji programu i ich sprzedaż
wśród dotychczasowych użytkowników.
Ta trzecia możliwość, najczęściej wybierana, stwarza oczywiste korzyści
konsumentom, zapewniając stały postęp w dziedzinie rozwoju oprogramowania.
Stwarza jednak równocześnie ogromne pole do popisu dla nieuczciwych praktyk
eksploatacyjnych.
Producenci o pozycji dominującej lub monopolistycznej, aby zapewnić sobie
sprzedaż kolejnych wersji programu mogą w jego dystrybucjach celowo umieszczać
błędy lub nadawać im inne wady, które ujawniają się dopiero w trakcie
eksploatacji. Nie muszą one mieć przy tym charakteru wad ukrytych, które
zobowiązywałyby producentów do ich nieodpłatnego usuwania. W praktyce jednak
bardzo ciężko stwierdzić jest czy program w tego rodzaju wady został wyposażony
celowo, tym trudniej zaś wykazać to w postępowaniu dowodowym. Posądzenia takie
jednak zdarzają się stosunkowo często i należy przypuszczać, że mogą być
zasadne. Przykładem budzącym takie wątpliwości są np. problemy ze współpracą
systemów operacyjnych Windows 95, Windows 98 i Windows Millenium z modemami typu
ADSL, na których oparta jest np. usługa dostępu do internetu Neostrada Plus
świadczona przez Telekomunikację Polską. Tego rodzaju trudności nie występują
tymczasem przy użyciu innych systemów operacyjnych, starszych nawet od Windowsa
95. Microsoft długo wzbraniał się przed opracowaniem programu usuwającego tę
wadę. Utrzymywanie się tej sytuacji skłaniało użytkowników oprogramowania
pracującego w systemie Windows do korzystania z Windows‘a XP, co powinno się
wiązać z koniecznością nowego zakupu. Takie postępowanie można porównać z
celowym obniżaniem jakości produktów przez producentów dóbr nietrwałych, które w
efekcie wymusić ma większy popyt na nie. Jest to celowe ograniczanie żywotności
produktu już w chwili jego powstania.
W dziedzinie oprogramowania istnieją jednak inne, bardziej skuteczne sposoby
celowego wywoływania wyjścia z użycia produktu przez jego producentów. Mają one
charakter o tyle inny od umyślnego wprowadzania do produktu wad, że nie tkwią w
samym produkcie w chwili jego sprzedaży, lecz są wywoływane zachowaniem
producenta w następnym okresie. Spróbujmy sobie wyobrazić procesor tekstu, który
ulega upowszechnieniu. Wraz z nim standardem przenoszenia danych staje się
format, którego on używa do zapisu dokumentów. Co się jednak stanie, kiedy
producent w następnej wersji programu wprowadzi taką zmianę formatu zapisu, że
dokumenty w nim zapisane nie mogą być już odczytywane przez wersję
dotychczasową? Użytkownicy nowej wersji programu nie będą odczuwali tego
rozwiązania jako wady, lecz ci, którzy chcieliby pozostać przy starej będą mieli
coraz więcej trudności z odczytywaniem dokumentów dostarczonych przez inne
osoby, lub np. pobranych z internetu. Tu znowu z właściwą oceną tej sytuacji z
punktu widzenia polityki antytrustowej nastąpią problemy. Trudno jest bowiem
jednoznacznie udowodnić na ile za zmianą formatu przemawiały względy techniczne,
na ile zaś jest to próba zmuszenia użytkowników do nabycia nowej wersji
programu. Sytuację tę odróżnia od poprzedniej fakt, że producent celowo
umniejsza wartości programu korzystając z efektu sieci. Mamy więc do czynienia
nie tyle ze strukturą wypieranego produktu, co z manipulacją standardem
dokonywaną przez producenta posiadającego nad nim władzę.
Nowe praktyki antykonkurencyjne
Wspomniałem już niejednokrotnie o tym jak ważne dla rynku na którym występuje
efekt sieci są przewidywania użytkowników co do dalszego rozwoju wydarzeń.
Podobnie jak wpływu na te przewidywania, jaki wywierają podmioty posiadające
dominującą pozycję. Jedną z istotniejszych praktyk antykonkurencyjnych może stać
się zatem manipulacja informacją, której się takie podmioty mogą dopuszczać.
Manipulacja taka najczęściej przybiera formę zapowiedzi wprowadzenia na rynek
nowego urządzenia pracującego w standardzie nad którym producent sprawuje
kontrolę. Zapowiedzi te mogą dotyczyć np. parametrów technicznych urządzenia,
wyprzedzających znacznie parametry urządzeń konkurencyjnych, pracujących w
odmiennych standardach kompatybilności. Tego rodzaju oświadczenia wywołują w
potencjalnych użytkownikach przeświadczenie nie tyle o wyższości technicznej
urządzeń produkowanych i sprzedawanych obecnie przez producenta, co o wyższym
stopniu zaawansowania technologicznego całego standartu, a co za tym idzie jego
lepszych rokowaniach na przyszłość. O ile oczywiście samo zapowiadanie nowych
rozwiązań praktyką antykonkurencyjną nie jest, to może się nią stać, kiedy za
pomocą nieprawdziwych lub przedwczesnych informacji producent o pozycji
dominującej naumyślnie wywiera wpływ na przewidywania użytkowników.
Podstawowy problem, który wiąże się z oceną rozpowszechniania takich informacji,
polega na tym, że skutecznie wywarty za ich pomocą wpływ na zachowania rynku
może spowodować, że początkowo nierealne zapowiedzi będą się mogły ziścić.
Warunkiem uznania takiej zapowiedzi za praktykę antykonkurencyjną musi być
wykazanie, że producent nie byłby w stanie jej zrealizować, gdyby nie wywarty
przez niego wpływ. Brak możliwości realizacji zapowiedzi w praktyce wiąże się
zaś z opóźnieniem jej realizacji. Dlatego na określenie tego rodzaju praktyk
używa się terminu zapowiedzi przedwczesnej.
Jeżeli system, który w wyniku działania efektu sieci stał się standardem, opiera
się na komponencie produkowanym przez jednego producenta, producent ten może z
łatwością zmusić konsumentów do kupowania także innych przez niego produkowanych
komponentów. Wystarczy, że połączy je w pewien sposób z dotychczas produkowanym
komponentem, do którego kupna konsumenci byli już zmuszeni i dopuści ich
sprzedaż jedynie łącznie. Eliminuje to z rynku innych producentów bez względu na
atrakcyjność ceny, czy wyższą jakoś produkowanych przez nich komponentów. Ten
rodzaj praktyki antykonkurencyjnej, przypominający w pewnym stopniu sprzedaż
wiązaną, może również polegać na nadawaniu dotychczas produkowanemu komponentowi
cech lub zastosowań do których dotychczas niezbędny był inny komponent. To z
pozoru dobrodziejstwo dla konsumentów sprawia jednak, że tracą oni wybór w
zakresie, w jakim dotychczasowy komponent spełnia inne funkcje, a tym samym
zmuszeni są po pewnym czasie zwykle płacić za te jego nowe cechy więcej niżby
płacili gdyby dokupowali inne komponenty od konkurujących ze sobą producentów.
Monopoliści w dziedzinie standardów nie muszą jednak od razu eliminować
producentów innych komponentów, w szczególności jeżeli ich działalność jest
potrzebna do utrzymania lub umocnienia standardu. Mogą jednak łatwo zdobyć nad
nimi nieuczciwą przewagę na rynku tych komponentów nie ujawniając pewnych
właściwości standardu. Konsumenci odczuwają lepsze działanie innych komponentów
dostarczanych przez producenta standardu i są skłonni je preferować.
Równocześnie rośnie w nich przekonanie o lepszej marce monopolisty. Tymczasem
przewaga wynika z tego, że inni producenci zmuszeni są respektować standard
monopolisty nie mając równocześnie o nim pełnych informacji. Monopolista zaś nie
wytwarza produktów lepszej jakości, lecz raczej powoduje niższą jakość
konkurencyjnych produktów utrzymując rynek w sztucznym „zacofaniu“.
Przewaga ta może być wykorzystywana zarówno do prowadzenia systematycznej
eksploatacji, jak i do podejmowania interwencji w obronie standardu.
Interwencja taka zaś polega najczęściej na sabotowaniu prób przełamywania
ograniczeń związanych z przenoszeniem danych lub innych komponentów pomiędzy
dominującym standardem a innymi. Może to następować za pomocą wszystkich z
opisanych tu praktyk antykonkurencyjnych, tj. manipulacji informacją, włączania
komponentów oraz wykorzystywania nieujawnionych informacji. Monopolista może
także modyfikować standard w celu zwiększenia niekompatybilności zanim dojdzie
do migracji innych danych lub innych komponentów do innych standardów.
Ostatecznie może także przejmować konkurencję za pomocą fuzji, które chociaż
tylko w nieznaczny sposób modyfikują jego udziały w rynku, to eliminują
potencjalnie bardzo niebezpieczną konkurencję, lub zagrożenie dla jego kontroli
nad standardem.
Charakterystyka rozwoju rynku komputerów osobistych
Pierwsze komputery pojawiły się w latach 40-tych. Jednak przez dziesiątki lat
były to niezwykle kosztowne urządzenia, których rynek był ograniczony do
przedsiębiorstw i instytucji państwowych. Zarówno ich stopień technicznego
zaawansowania, rozpowszechnienie, jak i sposób powstawania oprogramowania nie
pozwalały na dostrzeżenie zjawisk, które występują obecnie. Pierwsze przenośne
komputery pojawiać się w latach 70-tych i początkowo określane były mianem
mikrokomputerów. Rynek mikrokoputerów zaczął wykazywać skłonność do
standaryzacji, która objawiała się pojawieniem się tak zwanych „platform“.
Platforma związana była zwykle z firmą wprowadzającą na rynek określony rodzaj
mikrokomputera. Składał się na nią specyficzny sprzęt oraz system operacyjny.
Mikrokomputery nie posiadały zwykle budowy modułowej. Ich producenci dostarczali
gotowy system, który rzadko był modyfikowany przez użytkowników. Komputery
należące do różnych platform nie były ze sobą kompatybilne. Jednak wielość
platform zmuszała ich producentów do intensywnej konkurencji.
Wraz z sukcesem niektórych rozwiązań i ich upowszechnianiem się pojawiła się
idea komputerów kompatybilnych z określoną platformą, produkowanych jednak przez
innych producentów. Np. firma Timex wprowadziła w latach 80‘tych na rynek
mikrokomputery kompatybilne z ZX Spectrum, produkowane przez angielską firmę
Sinclair. Także w Polsce podjęto produkcję mikrokomputerów Meritum, a następnie
Elwro Junior, które również były kompatybilne z ZX Spectrum. Takie rozwiązanie
przynosiło korzyści w szczególności mniejszym producentom, w postaci możliwości
uruchamiania na tych komputerach znacznej ilości istniejącego oprogramowania.
Zostało ono popularnie nazwane „klonowaniem“ komputerów, zaś komputery
produkowane jako kompatybilne określane były „klonami“ ze względu na
podobieństwo do pierwowzorów.
Oprócz mikrokomputerów zaczęły pojawiać się również tzw. komputery osobiste i
domowe. Upowszechniały się w latach 80-tych, a zwłaszcza pod koniec tej dekady.
Komputery osobiste dysponowały zwykle większą mocą obliczeniową i lepszymi
osiągami graficznymi, co predysponowało je do zadań, do których często
wykorzystywane są już dzisiejsze generacje komputerów. Wśród nich coraz
silniejszą pozycję uzyskiwały komputery kompatybilne z IBM PC, które później
zaczęły być określane coraz częściej jako po prostu PC. Początkowo na rynku
komputerów osobistych utrzymywał się podział na platformy, który miał jeszcze
stosunkowo duże znaczenie na początku lat dziewięćdziesiątych. W Stanach
Zjednoczonych oprócz komputerów kompatybilnych z IBM PC popularność zdobywały
komputery firmy Apple, która zadebiutowała jeszcze w połowie lat 80‘tych modelem
Macintosh. W Europie natomiast upowszechniały się szesnastobitowe komputery
Atari serii ST/TT oraz bardziej wyspecjalizowane z zadaniach domowych Commodore
Amiga.
Jednak początek lat dziewięćdziesiątych przyniósł nie tylko znaczne, ale i
zdumiewające przemiany. Komputery kompatybilne z IBM PC zaczęły stosunkowo
szybko wypierać należące do pozostałych platform, zdobywając nie tylko rynek
komputerów osobistych, ale także wkraczając do zastosowań domowych. Można by
uznać, że w zasadzie nie ma niczego szczególnego w wypieraniu jednych standardów
przez inne. Jednak tym, co zwracało uwagę wielu obserwatorów był fakt, że
zjawisku temu towarzyszył regres techniczny.
Komputery należące do wypieranych platform były wyposażone w pod wieloma
względami bardziej zaawansowane rozwiązania. Posiadały systemy graficznej
prezentacji danych oparte na oknach. W ich standardzie od wielu lat znajdowała
się wprowadzona po raz pierwszy przez Apple Computer w roku 1984 mysz. Komputery
Apple, Atari, czy Amiga posiadały od początku karty dźwiękowe. Wyposażone były
także w układy wspomagające animację obrazu. Potrafiły także generować obrazy
lepszej jakości, zarówno pod względem ilości barw na ekranie (Amiga) jak i
stabilniejsze o wysokich rozdzielczościach i bardzo cenionych dzisiaj
parametrach dotyczących częstotliwości odświeżania ekranu (Atari ST, Macintosh).
Opanowały także wprowadzoną dla standardu PC znacznie później wielozadaniowość,
wcześniej znaną jedynie w przypadku niezwykle kosztownych stacji roboczych. Na
ich tle nowy zdobywca rynku wyglądał dużo skromniej. Komputery kompatybilne z PC
nie posiadały tak zaawansowanych jak na owe czasy rozwiązań graficznych. W
powszechnym użyciu nie występowały karty muzyczne. Obsługa tych komputerów
następowała głównie za pomocą klawiatury, a system MS DOS pozwalał na
wykonywanie tylko jednego zadania w tym samym czasie. Moc obliczeniowa IBM PC
XT/AT również ustępowała komputerom opartym na procesorach Motorolla 68000/030.
Można się zatem zastanowić co skłoniło konsumentów do nabywania komputerów
droższych i mniej efektywnych. Cała tajemnica wydaje się tkwić w oczekiwaniach
dotyczących dalszego rozwoju wydarzeń. IBM był bowiem producentem komputerów
należących do innej kategorii, tzw. komputerów profesjonalnych. Również
komputery osobiste, zarówno produkowane przez IBM‘a, jak i ich klony posiadały
budowę modułową, tzn. składały się z wymienialnych komponentów i przewidziane
były do rozbudowy. Dysponowanie przez IBM technologiami stosowanymi w znacznie
droższych rodzajach komputerów pozwoliło mu anonsować wykorzystanie tych
rozwiązań także w dziedzinie komputerów osobistych. Potencjalni nabywcy
komputerów o budowie modułowej mogli spodziewać się, że zapowiadane przez firmę
rozwiązania przyszłościowe mogą niedługo znaleźć zastosowanie w ich komputerach,
pomimo tego, że nie są jeszcze dostępne w chwili zakupu. Dodatkowo oczekiwania
te umacniała silna pozycja IMB‘a na rynku, której początkowo nie osłabiło
ujawnienie przez firmę standardu PC, a który to standard dzięki ujawnieniu
stawał się coraz bardziej powszechny. Pierwszym rodzajem klientów, który
preferował taki rodzaj komputerów byli klienci instytucjonalni. Duże
przedsiębiorstwa, urzędy, czy uczelnie wprowadzały masowo jeszcze IBM‘y XT,
spodziewając się, że będzie je można w przyszłości łatwo rozbudowywać. W chwili
zaś kiedy standard ten zaczął się upowszechniać i zdobył sobie opinię
profesjonalnego, efekt samoutwierdzających się oczekiwań zaczął funkcjonować.
IBM PC stał się również dość szybko standardem szkolnym, wypierając wcześniej
upowszechnione na tym gruncie komputery ZX Spectrum. Powodowało to często
preferowanie przez rodziców uczniów tego standardu oraz umacnianie się
przyzwyczajeń. Podsumowując chciałbym zwrócić uwagę na to, że w tej rewolucji,
jaką wywołały komputery PC w początku lat 90-tych, pomimo posiadania przez nie
także niewątpliwych zalet takich jak jawność standardu, czy modułowa budowa,
głównym motorem były jednak oczekiwania konsumentów podsycane umiejętnie
podawanymi informacjami.
Można by przypuszczać, że skoro standard PC nie należał już do IBM‘a to problem
ewentualnej monopolizacji rynku związanej z jego upowszechnieniem się stracił na
znaczeniu. Tak się jednak nie stało. Chociaż komputery PC produkować mógł każdy,
to jednak najważniejszym podzespołem tych komputerów był procesor główny
produkowany przez Intel‘a. Intel posiadał wyłączność produkcję procesorów z
serii x86. Stąd zyskał on stosunkowo najwięcej na upowszechnieniu się standardu.
Wraz ze wzrostem zapotrzebowania na te procesory jednak Intel zaczął zezwalać w
drodze umowy na produkcję procesorów kompatybilnych innym firmom, w tym Advanced
Micro Design (AMD). Zawarta z w 1982 roku umowa nie tylko zezwalała tej firmie
na produkcję procesorów całkowicie kompatybilnych, ale także na użycie w nich
mikrokodu opracowanego przez Intel, czyli specyficznego oprogramowania
wewnętrznego mikroprocesorów. Wprowadzając jednak nowy procesor, znany jako i386
Intel postanowił zrezygnować ze współpracy z AMD. Firma Advanced Micro Design
zareagowała na to posunięcie wprowadzeniem własnego procesora pod nazwą Amd386,
będącego także kontynuacją 80286 i zachowującego z nim kompatybilność.
Rozpoczęła się wtedy batalia prawna, która chociaż nie była bezpośrednio
związana z postępowaniem antymonopolowym, to miała znaczenie kluczowe dla
ewentualnego zachowania monopolu Intela na produkcję procesorów uznawanych za
standard używany do produkcji komputerów PC. Rozstrzygając tę sprawę w roku 1994
sąd uznał, że umowa zawarta 12 lat wcześniej uprawniała AMD do produkcji
procesorów zawierających mikrokod wewnętrzny opracowany przez Intel, jednak
dotyczyło to klonów mikroprocesora 286 i nie powinno być rozciągane na następne
produkty. Sąd nie przychylił się do podniesionego przez Intel zarzutu naruszenia
marki handlowej. Uznał, że oznaczenie procesora jako 386 nie narusza prawa Intel
Corporation, gdyż numer jest oznaczeniem zbyt pospolitym, żeby mógł podlegać
ochronie prawnej. W międzyczasie zaś weszła na rynek nowa generacja procesorów,
oznaczanych jako 486. Intel i AMD porozumiały się już poza sądem co do
wykorzystania mikrokodu Intela do ich produkcji przez AMD.
Niebawem jednak problem marki handlowej powrócił, a to za sprawą użycia przez
AMD nazwy Pentium na oznaczenie kolejnej generacji procesorów. Tym razem nie
chodziło już o pospolity numer, lecz o zastrzeżoną nazwę własną. AMD przegrał
sprawę sądową i zmuszony został do użycia nazwy K6 na oznaczanie swoich
przyszłych wyrobów. Pomimo odnoszenia przez Intel zwycięstw na drodze prawnej,
zaczynało się jednak stawać jasne, że ewentualny monopol w dziedzinie produkcji
procesorów znajdujących zastosowanie w komputerach w standardzie PC traci rację
bytu. O ile bowiem decyzja sądowa potwierdziła prawa Intela do mikrokodu
wewnętrznego opracowanego jeszcze dla procesorów 286, to do budowy procesorów
kompatybilnych kod ten nie był koniecznie potrzebny.
Współczesny rynek sprzętu komputerowego charakteryzuje się wielością zarówno
producentów gotowych komputerów osobistych, jak i producentów ich komponentów.
Dawne różnice pomiędzy komputerami profesjonalnymi a osobistymi zacierają się z
powodu szybkiego postępu technicznego, który sprawia, że rozwiązania do niedawna
kosztowne mogą po krótkim czasie zostać wprowadzone na rynek masowy.
Zdecydowanie najpopularniejszym standardem sprzętu stały się komputery PC.
Zarówno IBM, jak i Intel utrzymują się na rynku cieszą się dobrą marką. Jednak
nie wyznaczają już one standardów w sposób, jaki czyniły to dawniej. Nikt już
nie określa komputerów PC jako zgodnych z IBM‘em. Również procesory Intela nie
wyznaczają już standardów zgodności.
Z pozostałych, odmiennych standardów komputerów utrzymuje się natomiast
Macintosh, który jednak jest znacznie mniej popularny. Istnieją również stacje
robocze SUN. Jednak lawinowy postęp jaki dokonuje się ciągle w dziedzinie
sprzętu zmienił również sposób programowania komputerów. O ile programy kiedyś
pisane były dla konkretnych rozwiązań sprzętowych, to tworzone obecnie unikają
tego. Posługują się tzw. sterownikami, czyli podprogramami odpowiedzialnymi za
pracę określonych podzespołów. Sterowniki są na ogół tworzone przez producentów
podzespołów i dostarczane razem z nimi. Wzrosła także niewspółmiernie rola
systemu operacyjnego. Specyfika oprogramowania decydująca o możliwości jego
przenoszenia zaczęła być związana bardziej z systemami operacyjnymi, niż z
konkretnym sprzętem. Można na ogół z łatwością przenieść program napisany dla
systemu operacyjnego Linux pomiędzy jego komputerem PC a np. stacją SUN, na
której jest uruchomiona ta sama dystrybucja systemu operacyjnego. Znacznie
trudniej jest natomiast przenosić oprogramowanie pomiędzy różnymi systemami,
nawet jeśli działają one na identycznym sprzęcie. Zmiany te aktywizują i
pobudzają konkurencję na rynku sprzętu komputerowego. Mogą jednak stać się
źródłem nowego rodzaju monopolu związanego ze sprawowaniem kontroli nad
standardem - tj. systemem operacyjnym.
Podsumowanie
Rozwój XX-wiecznego kapitalizmu monopolistycznego cechował się stałym wzrostem
znaczenia kapitału trwałego w stosunku do kapitału obrotowego przedsiębiorstw.
Zjawisko to sprzyjało umacnianiu się monopolu, bądź innych, bardziej subtelnych
form władzy rynkowej, stwarzało bowiem rosnące bariery wejścia dla nowych
podmiotów.
Tzw. nowa ekonomia wydawała się burzyć tę zasadę poprzez odwrócenie proporcji
obydwu rodzajów kapitału. Okazało się jednak, że na rynku zaawansowanej
technologii zachodzą potężne zjawiska sprzyjające umacnianiu się monopolu i
zarazem dające nowy impuls do jego rozwoju. Pojawienie się efektu sieci i idąca
za nim potrzeba standaryzacji rozwiązań technologicznych, spowodowały powstanie
nowego źródła umacniania się monopolu, jakim stała się kontrola nad standardem.
Znane od początku wieku prawa ekonomii produkcji masowej w dziedzinach „nowej
ekonomii” ujawniły się ze szczególną potęgą. Koszt krańcowy produktów „nowej
ekonomii”, wobec pomijalnych tu kosztów jednostkowych, zaczął coraz bardziej
zbliżać się do zera. Użyteczność krańcowa zaczęła wymagać zaczęła jak
największej, najlepiej nieograniczonej liczby odbiorców.
Zauważyć można narastającą, krzyczącą wręcz sprzeczność pomiędzy efektywnością
wykorzystania potencjału stwarzanej technologii, a dążeniem monopolu do
zawładnięcia i wręcz stłumienia tych możliwości w imię utrzymania nad tym
potencjałem kontroli.
Nie sposób nie wielkiego oporu na jaką natrafia próba zaprowadzenia instytucji
własności prywatnej, w postaci tzw. „własności intelektualnej”, rozumianej jako
własność przemysłowa. Instytucja ta, w najwidoczniejszy sposób sztuczna,
ograniczająca użyteczność stwarzanej technologii oraz ze względów technicznych
bardzo trudna do wyegzekwowania, jest powszechnie nierespektowana.
Sprzeczności te będą musiały mieć coraz większe znaczenie ze względu na coraz
większe znaczenie przemysłów tzw. nowej ekonomii. Z pewnością nie da się ich
rozwiązać na gruncie instytucji kapitalistycznych.