magazyn internetowy Wirtu@l!

Poczta Wirtu@la!: redakcja@wirtual.pl
  · Strona główna ·     · Internet ·     · Komputer ·     · Telekomunikacja ·     · Felietony ·  

 Reklama - Magazyn Extraklasa
NAJTAŃSZA REKLAMA W WIRTUALU!




Bank w biurze


   W przeciętnej średniej wielkości firmie komputer służy do kilku czynności. Najczęściej jest to prowadzenie księgowości komputerowej, gospodarki magazynowej, w sekretariacie służy do tworzenia różnorakich pism. Czasami oprogramowanie w nim zawarte służy do tworzenia poleceń przelewu. W tym artykule chciałby opisać w jaki sposób za pomocą komputera uprościć i zabezpieczyć kontakty z bankiem. Przykładowym systemem jest Cash Management Banku Śląskiego.

Standardowe polecenie przelewu jest jednym z najprostszych do podrobienia dokumentów bankowych. Przy obecnym stanie techniki komputerowej jest to banalna sprawa. Szczegółów z oczywistych względów nie będę podawał (a nie są zbyt trudne do odgadnięcia). Ale przejdźmy do sedna. Cóż to takiego Cash Management (CM). To program komputerowy pozwalający na wszystkie podstawowe operacje bankowe (poza wypłatą gotówki :) ) nie ruszając się z biura, a nawet z domu czy innego miejsca w Polsce. Co jest nam potrzebne: komputer klasy PC, na którym działa Win 3.1. I to wszystko.

A oto opis działania krok po kroku. Zjawiamy się w swoim oddziale BSK i mówimy, że chcemy zainstalować w swojej firmie system CM. Jeżeli jesteśmy konkretnym klientem bank prosi o złożenie wniosku o instalację systemu CM. Czekamy ok. 1-2 miesięcy. I pewnego pięknego dnia dzwoni do nas ktoś z banku i umawia się na instalację systemu. W umówionym dniu zjawiają się pracownicy banku, z: dyskietkami, instrukcją (grubą!) i MODEMEM. Tak, tak przywożą własny modem (w moim przypadku U.S. Robotics 33.600 - styczeń 1998). Oprócz tego przywożą klucz sprzętowy, bez którego nie działa program (to pierwsze zabezpieczenie). Informatyk instaluje program, a druga osoba instruuje personel. Oprócz tego trzeba zdefiniować dane waszego konta. To tyle jeżeli chodzi o instalacje. Sam program jest zabezpieczony na kilka sposobów:

1. Samo hasło do komputera (w BIOSie)

2. Hasło pozwalające na wejście do programu CM definiowane wraz z uprawnieniami dla każdego użytkownika

3. Zdefiniowanie praw dostępu dla personelu (np. użytkownik może tylko wprowadzać dane, a nie może ich usuwać itd.)

4. Każdorazowe połączenie modemowe z komputerem banku wymaga wprowadzenia kodu PIN (jak w karcie kredytowej, ale ten jest 5-cio cyfrowy).

5. Stale musi być obecny w porcie drukarki klucz sprzętowy.

6. Wysyłane dane są kodowane.

7. Oprócz tego sam system jest tworzony dla konkretnego użytkownika (któraś z bibliotek).

Na co pozwala program? Na sprawdzanie salda konta, praktycznie on-line (opóźnienie wynosi od 10 minut do 2 godzin), możemy tworzyć przelewy w systemie i następnie wysyłać je w formie elektronicznej, zamawiać sorty pieniężne (przydatne przy wypłacie) i korespondować z bankiem (coś w formie poczty elektronicznej). Jest to praktycznie 90% tego co załatwiamy w banku. System działa od 7:00 do 17:50 w dni powszednie, w soboty krócej. I oczywiście modemu możemy używać nie tylko do zabawy z naszym kontem, ale np. w sieci Internet.

A teraz koszty. Już myślicie "O Boże to pewnie strasznie drogie". No ... osądźcie sami. Sama instalacja kosztowała ok. 200 zł (nie pamiętam dokładnie - styczeń 1998), miesięczna opłata ok. 80 zł. (w mojej firmie to ok. 2 wizyty w banku). Co istotne nie płacimy za połączenia telefoniczne (sprawdzanie salda, wysyłanie przelewów itd.) ponieważ jest to numer 0 800. Nie płacimy za używanie modemu, który jest własnością banku i po rezygnacji z systemu CM należy go zwrócić. I to tyle - opłata za prowadzenie rachunku i wysyłane przelewy jest standardowa.

Na koniec może trochę minusów. W moim komputerze było trochę problemów z instalacją systemu pod Win95, potrzebna była interwencja informatyków z banku. Sprawdzanie salda nie jest możliwe cały czas w okresie działania systemu, ponieważ nie jest on aktualizowany on-line a średnio co 1,5 - 2 godziny (godziny tzw., łamania systemu podaje bank). Okres braku dostępu waha się od 15minut do godziny. Zdarzają się dni, gdy cały system CM nie działa - ostatnio rzadko, ale był okres, że nawet 2-3 dni w miesiącu CM nie działał. W menu historia rachunku trudno jest zdefiniować daną kwotę- przelewy wysłane przez CM pojawiają się pod pozycją "wypłata Cash" i wiem co to jest dopiero po otrzymaniu papierowych wyciągów. I trzeba uważać, wysłane przelewu po łamaniu systemu jest trudno wycofać. Ale mimo tego plusy są niezaprzeczalne.

Podsumowując "Office Banking" w postaci systemu CM to rzecz bardzo wygodna i w firmie, w której pracuję już praktycznie nieodzowna. W momencie, kiedy czeka się na wpływ jakiejś kwoty nie zawracamy głowy personelowi banku telefonami, wszystko załatwiamy siedząc przed komputerem. Testy praktyczne (na moim prywatnym koncie bankowym wykazały, że przelew wysłany ok. 14:15 (najbardziej optymalny czas) pojawia się na moim własnym koncie ok. 14:40. Wbrew pozorom takie wysyłanie przelewów jest o wiele bardziej bezpieczne. Gdy tak jeszcze można było drukować u siebie banknoty....

Wszelkie uwagi zapytania i komentarze do artykułu proszę kierować na adres :
Przemysław Mrozek



 Flob.net - portal internetowy
NAJTAŃSZA REKLAMA W WIRTUALU!


Czy Linux może pokonać Windows?


   System operacyjny Microsoftu jest bez wątpienia najczęściej używanym OS-em na świecie. Ostatnio jednak pojawiły się pogłoski, że MS zamierza wprowadzić abonament za korzystanie z Windows. Wiele osób zwróciło wtedy swoje oczy w stronę czegoś innego – Linuksa. Jest to darmowy system operacyjny, który miałby zastąpić popularną „Windę”. Czy tak może się stać? Spróbujmy przyjrzeć się bliżej temu problemowi.

System stworzony przez Linusa Torvaldsa jest coraz powszechniejszy. W tej chwili jego użytkownicy stanowią ok. 5 – 10 % ogółu, co na pewno nie jest liczbą małą. Odsetek ten stale rośnie. Wypadałoby się teraz zastanowić jakie podobieństwa i różnicę występują między przedmiotami tych rozważań. Pierwszą wspólną cechą jest bez wątpienia to, iż oba OS-y są w pełni 32-bitowe i wielozadaniowe. Tyle tylko, że w Linuksie wie- lozadaniowość działa lepiej. Tzw. Jądro (kernel) systemu doskonale izoluje od siebie poszczególne procesy i bardzo rzadko zdarza się, aby jakaś aplikacja zdołała zawiesić komputer. W Windows natomiast sam niejedno- krotnie przeklinałem mojego kompa gdy pojawił się znajomy wielu – niebieski ekran lub inne wspaniałe okienko dialogowe z radością informujące, że program wykonał niedozwoloną operację i zostanie zakończony. Chwilę później pomaga już tylko naciśnięcie magicznego przycisku reset. Kolejną ważną cechą Linuksa, której Win- dows nie posiada jest kontrola dostępu i niezwykle rozbudowana praca w sieci. Wyobraźmy sobie, że np. z jed- nego komputera chce korzystać kilku użytkowników. Co wtedy? W Linuksie – każdy z nich może posiadać własne konto i nie mieć możliwości dostępu do zasobów kogoś innego. Bardzo przydatna w niektórych sytu- acjach rzecz. A w „Oknach”? Istnieje tam wprawdzie namiastka kont, ale nie da się skutecznie ukryć danych przed innymi. Co się tyczy wspomnianej pracy w sieci – wyobraźmy sobie, że mamy połączone dziesięć kom- puterów. Jeden z nich – najszybszy można wtedy skonfigurować w ten sposób, aby uruchamiać na nim zdalnie program z innego komputera (terminala) i wykorzystywać jego moc obliczeniową. Poza tym Linux może bez problemu służyć jako serwer intra- czy internetowy. Za darmo! Kolejną kwestią, na którą warto zwrócić uwagę jest łatwość użytkowania.

Tutaj przewaga leży po stronie komercyjnego produktu Microsoftu. Jest on z pewno- ścią łatwiejszy w użyciu. Jednak Linux wcale nie jest tak trudny w obsłudze, jak niektórzy twierdzą. A nauka nikomu nie zaszkodzi. Jednak po prawidłowym skonfigurowaniu i przygotowaniu – wszystko staje się po prostu równie proste jak w Windows.

No i dotarliśmy do chyba najważniejszego. Wiadomo, że nawet najlepszy system operacyjny nie jest w stanie przetrwać bez oprogramowania. Tu, jak na razie, Linux jest daleko wstecz za „Win- dą”. Ilość programów dostępnych w tym drugim środowisku jest nieporównywalnie większa. Jednak aplikacji dla Linuksa jest coraz więcej i są coraz lepsze. Poza tym wiele z nich jest darmowych. Już teraz jest ich całkiem sporo – możemy spotkać programy z każdej praktycznie dziedziny. Istnieją też np. linuksowe wersje niektórych gier (np. Quake, Quake2).

   Czy Linux może więc wyprzeć Windows z rynku? Trudno powiedzieć, ale mimo wszystko myślę, że tak. Ilość użytkowników zależy od ilości i jakości oprogramowania oraz sterowników (a właśnie; mimo, iż Li- nux jest darmowy, posiada naprawdę pokaźną liczbę sterowników do wielu urządzeń. Niektóre firmy nie chcą co prawda udostępniać dokumentacji, która posłużyłaby programistom do stworzenia dobrych driverów (vide ska- nery Primax), co jednak powinno się zmienić, niektóre zaś same zaczynają odpowiednie sterowniki opracowy- wać (np. Creative Labs)), a te z kolei zależą od ilości użytkowników właśnie. Ich ciągle rosnąca liczba na pewno dobrze wróży przyszłości Linuksa. Być może kiedyś komputery kupowane w sklepach będą tańsze o 400 zł, pracowały stabilniej i szybciej (nie mam tu na myśli ciągłego rozwoju sprzętu) a użytkownicy będą bardziej z nich zadowoleni? Zobaczymy, ale jestem dobrej myśli.

Tomasz "Manwe" Olszewski



 Flob.net - portal internetowy
NAJTAŃSZA REKLAMA W WIRTUALU!


Standard MPEG


Zakodowanie każdego typu informacji w postaci cyfrowej wymaga odpowiedniego standardu. I tak powszechnie znanymi i zatwierdzonymi standardami zapisu plików graficznych jest GIF (Graphics Interchange Format), JPEG oraz PNG (Portable Network Graphics), a oficjalnie zatwierdzonym standardem zapisu plików z informacją multimedialną jest MPEG (Moving Pictures Experts Group). Standard ten występuje w kilku wersjach, całkowicie kompatybilnych wstecz. Oznacza to, iż program potrafiący zdekodować strumień MPEG-2 poradzi sobie także z danymi w formacie MPEG-1. MPEG-1 (ISO/IEC 11172) - Zatwierdzony w 1992 r. Standaryzuje przesyłanie obrazu video wraz z dźwiękiem, przy bitrate sięgającym 1,5Mbit/s. Wykorzystywane jest kodowanie DCT/DPCM z kompensacją ruchu. Dźwięk może być przesyłany z częstotliwościami próbkowania: 32, 44.1 lub 48 kHz, z wykorzystaniem schematów kodowania Layer I/II/III. Obecnie jego dekompresja dokonywana jest software'owo. MPEG-2 (ISO/IEC 13818) - Zatwierdzony w 1994 r. Jest rozszerzeniem standardu MPEG-1, pozwalającym na kodowanie obrazu z przeplotem oraz w rozdzielczościach standardowego TV lub wyższych. Umożliwia wykorzystanie niższych częstotliwości próbkowania dźwięku, a także przeznaczenie niższego (niż w MPEG-1) pasma na dźwięk o małej wartości informacyjnej. Dzięki swojej specyfice znalazł on zastosowanie w europejskim standardzie cyfrowej telewizji nadziemmej oraz satelitarnej. Ze względu na wysoki stopień kompresji konieczna jest sprzętowa dekompresja strumienia danych MPEG-2. MPEG-4 (ISO/IEC 14496) - Zatwierdzony w 1998 r., określany mianem "standardu przyszłości". Strumień danych składa się obiektów, każdy obiekt może być przykładowo sekwencją audio, wideo, zapisem syntetyzowanego dźwięku itp. Dzięki takiemu podziałowi można optymalnie wykorzystać pasmo przydzielając je poszczególnym obiektom. MPEG-4 poszerza zakres dostępnych prędkości przesyłu, zwiększa efektywność kompresji i dodaje wiele nowych możliwości np. syntezę dźwięku, która dzięki międzynarodowemu zestawowi fonemów może być także zastosowana dla języka polskiego, a także wykorzystanie muzyki w popularnym formacie MIDI. W strumieniu MPEG-4 można również zastosować kodowanie dźwięku w formacie AAC (patrz niżej).

Prowadzono również prace nad standardem MPEG-3, ale zostały one zaniechane. W przygotowaniu jest już standard MPEG-7 przenoszący opis informacji multimedialnej z poziomu bezpośredniej kompresji na wyższy poziom abstrakcji. Data oficjalnego zatwierdzenia formatu przewidywana jest na wrzesień 2001 r.

Jak już powyżej wspomniałem wszystkie odmiany standardu MPEG przesyłają dane audio i video (chociaż nie tylko) za pomocą strumienia informacji o z góry ściśle określonej prędkości (w Mbit/s). Upraszcza to ich przesyłanie za pomocą sieci komputerowych (wystarczy usługa gwarantowanej szybkości transmisji) oraz łączy satelitarnych (rezerwacja stałego pasma). Zapisanie danych audio w strumieniu MPEG wymaga skorzystania z jednego ze schematów kodowania dźwięku. Oto one: MPEG Audio Layer I - prosty format kodowania dźwięku, charakteryzujący się niewielką kompresją, znajduje zastosowanie, gdy ważna jest niewielka złożoność programu kodującego. MPEG Audio Layer II - w stosunku do Layer I wprowadza model psychoakustyczny mózgu ludzkiego, pozwalając na większe upakowanie danych. Wymaga również nieco bardziej złożonego programu encodującego, chociaż znajduje zastosowanie w przekazach multimedialnych "na żywo". MPEG Audio Layer III - znany zapewne większości Internautom jako pliki MP3. W stosunku do poprzednich dwóch schematów umożliwia uzyskanie dużo lepszej jakości dźwięku przy mniejszej prędkości strumienia danych. Dodatkowo prędkość ta może być wybrana w sposób praktycznie dowolny. Schemat wymaga jednak dość złożonego programu-dekodera. MPEG AAC (Addaptive Audio Encoding) - jest nowym standardem kompresji audio, zapewniającym bardzo wysoką jakość już przy paśmie 64kbit/s. Umożliwia umieszczenie w jednym strumieniu wielu niezależnych kanałów audio, 16 z nich może być przeznaczone na wielojęzyczne wersje tej samej audycji. Ten schemat kodowania jest jeszcze bardzo słabo rozpowszechniony, a dostępne programy dekodujące nie zachwycają jakością dźwięku. Mimo to format powinien szybko się rozpowszechnić, dzięki jego ewidentnym zaletom nad obecnie panującym Layerem III. Powyższe warstwy kodowania również są całkowicie zgodne w dół tzn. posiadając program zdolny odkodować strumień Audio Layer III możemy być pewni, iż poradzi on sobie także ze schematami II oraz I.

A co to wszystko dla nas znaczy?
Przede wszystkim to, iż użytkownicy sprzętu elektronicznego mają do dyspozycji jednolity, tabilny i elastyczny format przekazu informacji multimedialnej. Format, który już niejednokrotnie próbował być wypierany przez rozwiązania innych firm, takie jak MS Video, WAVE czy RealAudio/RealVideo. Owszem, rozwiązania te mogą sprawować się lepiej w pewnej, wąskiej klasie zastosowań, jednak moim zdaniem nic nie prześcignie potęgi otwartego standardu.

Za miesiąc postaram się scharakteryzować dostępne oprogramowanie oraz sposoby kodowania i dekodowania dźwięku MPEG Audio.
Paweł Grajewski



 Flob.net - portal internetowy
NAJTAŃSZA REKLAMA W WIRTUALU!


Podgrzana sprawa


Kilka dni temu wpadł mi w ręce ostatni numer jednej z renomowanych gazet polskiego rynku wydawniczego, w którym odnalazłem artykuł, zawierający szczegółowe wskazówki, dotyczące tzw. "overclockingu", czyli po naszemu: "podkręcania procka". Oprócz rzetelnych informacji natury czysto technicznej, można było doszukać się w artykule wypowiedzi rzekomych specjalistów komputerowych, stanowczo sprzeciwiających się podobnym praktykom. Według owych fachowców metoda sztucznego podkręcania zegara procesora może (czyt.: musi) powodować poważne problemy w działaniu układu, a w skrajnych przypadkach może prowadzić nawet do jego przepalenia. "Specjaliści" twardo obstają przy swoim stanowisku, iż "lepiej dać więcej, ale za to mieć pewność...". Nie muszę chyba dodawać, czym zajmują się owi "spece" na co dzień - są oczywiście właścicielami sklepów i firm komputerowych! Bo któż inny, jak właśnie nie oni, miałby interes w przekonywaniu potencjalnego klienta do zakupu procesora droższego (czyt. Pentium II 400), zalegającego miesiącami na półce sklepowej, niż tańszego (czyt. Celeron 300A), który po podkręceniu na 450Mhz uzyskuje podobne osiągi? Któż inny przekonywałby kupującego do wydania większej, zamiast mniejszej sumy pieniędzy, oferując w zamian to samo? Poza tym, cóż innego mógłby powiedzieć właściciel renomowanej firmy sprzedającej części komputerowe, jeśli nie to, iż praktyki "overclockingu" są rzeczą wysoce niepożądaną. Czy mógłby powiedzieć to, co myśli naprawdę, wyznać, że: "sam se w chacie podkręca procka, tylko do gazety tak nie może powiedzieć, bo go Intel zjedzie i tak naprawdę, to nie rozumie ludzi, którzy kupują tę samą jakość za dwukrotnie wyższą cenę"? Wszyscy doskonale wiemy, jakimi prawidłami rządzi się rynek, ale czy próba nakłonienia klienta do zawarcia transakcji, w gruncie rzeczy, mniej dla niego opłacalnej, jest rzeczą godną pochwały? Czy groźby utraty gwarancji, zachwiania stabilności działania czy wręcz zupełnego zniszczenia procesora ze strony sprzedających, nie działają ze zdwojoną siłą szczególnie na laików komputerowych? Czyż to właśnie nie oni, pod wpływem złowieszczych przepowiedni oferenta, decydują się na zakup zestawu droższego, lecz z drugiej strony - wg "specjalistów" - pewnego w działaniu? Demagogii "lichwiarzy" ulegają przede

wszystkim ludzie, nie mający zielonego pojęcia o komputerach - napaleni na "overclocking", o którym usłyszeli od znajomych, zmieniający jednak szybko zdanie w sprawie zakupu zestawu w obliczu czarnych wizji "przepalenia", nakreślanych przez sprzedającego. Wydawać by się mogło jednak, iż wcale nie trzeba być specem komputerowym, by znaleźć realne podstawy ku zakupieniu właśnie przykładowego Celerona celem jego przetaktowania. Mając bowiem do dyspozycji proste urządzenie liczące (kalkulator, względnie giętki umysł - przy. aut.), łatwo jest dość do wniosku, że nawet po zakupie i nieudanej próbie "podkręcania" słabszego procesora, zakończonej przepaleniem układu (odsetek przypadków bliski zeru), pozostaje w naszej kieszeni jeszcze przynajmniej tyle pieniędzy, iż możemy sobie pozwolić na drugi. Mamy zatem szansę na powtórny eksperyment. Niestety, w przypadku procesora droższego, na podobny luksus nie moglibyśmy sobie pozwolić. Abstrahując od tego, że przypadki awarii zdarzają się niezwykle rzadko (zazwyczaj wśród niedoświadczonych użytkowników), na obalenie stanowiska ww. "specjalistów" można by znaleźć jeszcze gros argumentów. Jednak nie trzeba chyba ich wszystkich tutaj przytaczać, aby zdać sobie sprawę z obłudy, bijącej wręcz od sprzedających, próbujących przekabacić na swoją stronę niczego nieświadomych profanów w dziedzinie komputerów. Do kogóż bowiem innego, jak nie właśnie do biednych laików skierowane są słowa odżegnujące od pomysłu przetaktowywania? Czy przeciętnie doświadczony użytkownik komputera, posiadający pewną wiedzę o sposobie jego działania, jest w skłonny ulec podobnym, idiotycznym argumentom? Czy kogokolwiek o zdrowym, realistycznym podejściu do życia jest w stanie przekonać bełkot quasi-specjalistów o rzekomych wadach "overclockingu" w obliczu jego niewątpliwej opłacalności? Niewątpliwie istnieją pewne zagrożenia i wady powyższej metody przyspieszania systemu; jedną z nich jest zapewne szybsze zużycie materiału, w którego wykonany jest układ. Wg "specjalistów" błędy rachunkowe mogą w takim wypadku pojawić się już po dwóch latach użytkowania. Któż jednak myśli o ewentualnych anomaliach w działaniu procesora, mogących wystąpić za dwa lata, kiedy to będzie on już wysłużonym reliktem przeszłości, wymagającym, tak czy owak, wymiany? Czy kazuistyka naciągaczy powinna wpływać na nas przy podejmowaniu tak ważnej decyzji, jaką niewątpliwie jest zakup komputera? Czy powinniśmy zawierzać ludziom, pragnącym wzbogacić się na naszej niewiedzy? Czy ich zysk jest godzien naszych pieniędzy?
Życzę rozsądku.

Paweł Otto



 Flob.net - portal internetowy
NAJTAŃSZA REKLAMA W WIRTUALU!


Nieopisane i opisane błędy Windows (1)


Przez 10 godzin męczyłem Windows 98 by wykrzesać z niego jakikolwiek błąd. Nawet testy w Microsofcie nie mogły się równać z moimi. Po jakichś dóch godzinach stwierdziłem, że nic z tego nie będzie. Nie miałem racji coś zaczęło się dziać ! Oto co zdząrzyłem znaleźć:

Błąd pierwszy;
przy użyciu trybu MS-DOS bardzo często zdarzają się nie wyjaśnione wpadki. To pierwsza z nich. Ni z tego ni z owego uruchamiając Tryb MS-DOS pojawiło się pytanie [T,N]?_ Odpowiedź była ... oczywista. Chodziło o T czyli kompletne zawieszenie się systemu. Jeśli jednak przypadkiem wpisał ktoś N, komputer potrafił warknąć kilkanaście razy tabliczkami "Program spowodwał błąd i zostanie zamknięty".

Błąd drugi;
C:\WINDOWS\A:
Brak gotowości podczas odczytu na dysku A
Przerwij, pOnów, Zrezygnuj?p

Bierzący dysk nie jest już być prawidłowy>

Kali mówić, że Windows być prawidłowy...

Błąd trzeci;
Program CVT z niewytłumaczalnych przyczyn potrafi anulować konwersje... [Wywołane zostało polecenie CVT D:]
Konwertuje 16-bitowy system plików FAT na 32-bitowy system plików FAT
Użycie: CVT D: gdzie D jest dyskiem przeznaczonym do konwersji
Konwersja została anulowana
OK


Błąd czwarty;
MS Internet Explorer (znienawidzony przez wielu) przedstawia poziom rozdwojenia jaźni komputera...

Góra okna: C:\WINDOWS\web\folder.htt - Microsoft Internet Explorer
Treść okna: A:\nie jest dostępny (mimo, że w tytule chodziło o folder na dysku C)
Urządzenie nie jest gotowe


Błąd piąty;
Chyba najbardziej znany błąd Windows, nadal nie wiem co oznacza moduł [nieznany], ale wiem na pewno, że mi jest on znany od czasów Windows 95.

FONTVIEW spowodował błąd: nieprawidłowa stron w module [nieznany] przy 0000:00000015.
Rejestry: ...


To na razie tyle...

Mateusz "Matt" Żydek



 Flob.net - portal internetowy
NAJTAŃSZA REKLAMA W WIRTUALU!


  · Strona główna ·     · Internet ·     · Komputer ·     · Telekomunikacja ·     · Felietony ·