Bank w biurze
W przeciętnej średniej wielkości firmie komputer służy do kilku czynności. Najczęściej jest to prowadzenie księgowości komputerowej, gospodarki magazynowej, w sekretariacie służy do tworzenia różnorakich pism. Czasami oprogramowanie w nim zawarte służy do tworzenia poleceń przelewu. W tym artykule chciałby opisać w jaki sposób za pomocą komputera uprościć i zabezpieczyć kontakty z bankiem. Przykładowym systemem jest Cash Management Banku Śląskiego.
Standardowe polecenie przelewu jest jednym z najprostszych do podrobienia dokumentów bankowych. Przy obecnym stanie techniki komputerowej jest to banalna sprawa. Szczegółów z oczywistych względów nie będę podawał (a nie są zbyt trudne do odgadnięcia).
Ale przejdźmy do sedna. Cóż to takiego Cash Management (CM). To program komputerowy pozwalający na wszystkie podstawowe operacje bankowe (poza wypłatą gotówki :) ) nie ruszając się z biura, a nawet z domu czy innego miejsca w Polsce. Co jest nam potrzebne: komputer klasy PC, na którym działa Win 3.1. I to wszystko.
A oto opis działania krok po kroku. Zjawiamy się w swoim oddziale BSK i mówimy, że chcemy zainstalować w swojej firmie system CM. Jeżeli jesteśmy konkretnym klientem bank prosi o złożenie wniosku o instalację systemu CM. Czekamy ok. 1-2 miesięcy. I pewnego pięknego dnia dzwoni do nas ktoś z banku i umawia się na instalację systemu.
W umówionym dniu zjawiają się pracownicy banku, z: dyskietkami, instrukcją (grubą!) i MODEMEM. Tak, tak przywożą własny modem (w moim przypadku U.S. Robotics 33.600 - styczeń 1998). Oprócz tego przywożą klucz sprzętowy, bez którego nie działa program (to pierwsze zabezpieczenie). Informatyk instaluje program, a druga osoba instruuje personel. Oprócz tego trzeba zdefiniować dane waszego konta. To tyle jeżeli chodzi o instalacje.
Sam program jest zabezpieczony na kilka sposobów:
1. Samo hasło do komputera (w BIOSie)
2. Hasło pozwalające na wejście do programu CM definiowane wraz z uprawnieniami dla każdego użytkownika
3. Zdefiniowanie praw dostępu dla personelu (np. użytkownik może tylko wprowadzać dane, a nie może ich usuwać itd.)
4. Każdorazowe połączenie modemowe z komputerem banku wymaga wprowadzenia kodu PIN (jak w karcie kredytowej, ale ten jest 5-cio cyfrowy).
5. Stale musi być obecny w porcie drukarki klucz sprzętowy.
6. Wysyłane dane są kodowane.
7. Oprócz tego sam system jest tworzony dla konkretnego użytkownika (któraś z bibliotek).
|
Na co pozwala program? Na sprawdzanie salda konta, praktycznie on-line (opóźnienie wynosi od 10 minut do 2 godzin), możemy tworzyć przelewy w systemie i następnie wysyłać je w formie elektronicznej, zamawiać sorty pieniężne (przydatne przy wypłacie) i korespondować z bankiem (coś w formie poczty elektronicznej). Jest to praktycznie 90% tego co załatwiamy w banku. System działa od 7:00 do 17:50 w dni powszednie, w soboty krócej. I oczywiście modemu możemy używać nie tylko do zabawy z naszym kontem, ale np. w sieci Internet.
A teraz koszty. Już myślicie "O Boże to pewnie strasznie drogie". No ... osądźcie sami. Sama instalacja kosztowała ok. 200 zł (nie pamiętam dokładnie - styczeń 1998), miesięczna opłata ok. 80 zł. (w mojej firmie to ok. 2 wizyty w banku). Co istotne nie płacimy za połączenia telefoniczne (sprawdzanie salda, wysyłanie przelewów itd.) ponieważ jest to numer 0 800. Nie płacimy za używanie modemu, który jest własnością banku i po rezygnacji z systemu CM należy go zwrócić. I to tyle - opłata za prowadzenie rachunku i wysyłane przelewy jest standardowa.
Na koniec może trochę minusów. W moim komputerze było trochę problemów z instalacją systemu pod Win95, potrzebna była interwencja informatyków z banku. Sprawdzanie salda nie jest możliwe cały czas w okresie działania systemu, ponieważ nie jest on aktualizowany on-line a średnio co 1,5 - 2 godziny (godziny tzw., łamania systemu podaje bank). Okres braku dostępu waha się od 15minut do godziny. Zdarzają się dni, gdy cały system CM nie działa - ostatnio rzadko, ale był okres, że nawet 2-3 dni w miesiącu CM nie działał. W menu historia rachunku trudno jest zdefiniować daną kwotę- przelewy wysłane przez CM pojawiają się pod pozycją "wypłata Cash" i wiem co to jest dopiero po otrzymaniu papierowych wyciągów. I trzeba uważać, wysłane przelewu po łamaniu systemu jest trudno wycofać. Ale mimo tego plusy są niezaprzeczalne.
Podsumowując "Office Banking" w postaci systemu CM to rzecz bardzo wygodna i w firmie, w której pracuję już praktycznie nieodzowna. W momencie, kiedy czeka się na wpływ jakiejś kwoty nie zawracamy głowy personelowi banku telefonami, wszystko załatwiamy siedząc przed komputerem. Testy praktyczne (na moim prywatnym koncie bankowym wykazały, że przelew wysłany ok. 14:15 (najbardziej optymalny czas) pojawia się na moim własnym koncie ok. 14:40. Wbrew pozorom takie wysyłanie przelewów jest o wiele bardziej bezpieczne. Gdy tak jeszcze można było drukować u siebie banknoty....
Wszelkie uwagi zapytania i komentarze do artykułu proszę kierować na adres :
Przemysław Mrozek
|
NAJTAŃSZA REKLAMA W WIRTUALU!
Czy Linux może pokonać Windows?
System operacyjny Microsoftu jest bez wątpienia najczęściej używanym OS-em na świecie. Ostatnio
jednak pojawiły się pogłoski, że MS zamierza wprowadzić abonament za korzystanie z Windows. Wiele osób
zwróciło wtedy swoje oczy w stronę czegoś innego Linuksa. Jest to darmowy system operacyjny, który miałby
zastąpić popularną Windę. Czy tak może się stać? Spróbujmy przyjrzeć się bliżej temu problemowi.
System stworzony przez Linusa Torvaldsa jest coraz powszechniejszy. W tej chwili jego użytkownicy
stanowią ok. 5 10 % ogółu, co na pewno nie jest liczbą małą. Odsetek ten stale rośnie. Wypadałoby się teraz
zastanowić jakie podobieństwa i różnicę występują między przedmiotami tych rozważań. Pierwszą wspólną
cechą jest bez wątpienia to, iż oba OS-y są w pełni 32-bitowe i wielozadaniowe. Tyle tylko, że w Linuksie wie-
lozadaniowość działa lepiej. Tzw. Jądro (kernel) systemu doskonale izoluje od siebie poszczególne procesy i
bardzo rzadko zdarza się, aby jakaś aplikacja zdołała zawiesić komputer. W Windows natomiast sam niejedno-
krotnie przeklinałem mojego kompa gdy pojawił się znajomy wielu niebieski ekran lub inne wspaniałe okienko
dialogowe z radością informujące, że program wykonał niedozwoloną operację i zostanie zakończony. Chwilę
później pomaga już tylko naciśnięcie magicznego przycisku reset. Kolejną ważną cechą Linuksa, której Win-
dows nie posiada jest kontrola dostępu i niezwykle rozbudowana praca w sieci. Wyobraźmy sobie, że np. z jed-
nego komputera chce korzystać kilku użytkowników. Co wtedy? W Linuksie każdy z nich może posiadać
własne konto i nie mieć możliwości dostępu do zasobów kogoś innego. Bardzo przydatna w niektórych sytu-
acjach rzecz. A w Oknach? Istnieje tam wprawdzie namiastka kont, ale nie da się skutecznie ukryć danych
przed innymi. Co się tyczy wspomnianej pracy w sieci wyobraźmy sobie, że mamy połączone dziesięć kom-
puterów. Jeden z nich najszybszy można wtedy skonfigurować w ten sposób, aby uruchamiać na nim zdalnie
program z innego komputera (terminala) i wykorzystywać jego moc obliczeniową. Poza tym Linux może bez
problemu służyć jako serwer intra- czy internetowy. Za darmo! Kolejną kwestią, na którą warto zwrócić uwagę
jest łatwość użytkowania.
|
Tutaj przewaga leży po stronie komercyjnego produktu Microsoftu. Jest on z pewno-
ścią łatwiejszy w użyciu. Jednak Linux wcale nie jest tak trudny w obsłudze, jak niektórzy twierdzą. A nauka
nikomu nie zaszkodzi. Jednak po prawidłowym skonfigurowaniu i przygotowaniu wszystko staje się po prostu
równie proste jak w Windows.
No i dotarliśmy do chyba najważniejszego. Wiadomo, że nawet najlepszy system
operacyjny nie jest w stanie przetrwać bez oprogramowania. Tu, jak na razie, Linux jest daleko wstecz za Win-
dą. Ilość programów dostępnych w tym drugim środowisku jest nieporównywalnie większa. Jednak aplikacji
dla Linuksa jest coraz więcej i są coraz lepsze. Poza tym wiele z nich jest darmowych. Już teraz jest ich całkiem
sporo możemy spotkać programy z każdej praktycznie dziedziny. Istnieją też np. linuksowe wersje niektórych
gier (np. Quake, Quake2).
Czy Linux może więc wyprzeć Windows z rynku? Trudno powiedzieć, ale mimo wszystko myślę, że
tak. Ilość użytkowników zależy od ilości i jakości oprogramowania oraz sterowników (a właśnie; mimo, iż Li-
nux jest darmowy, posiada naprawdę pokaźną liczbę sterowników do wielu urządzeń. Niektóre firmy nie chcą co
prawda udostępniać dokumentacji, która posłużyłaby programistom do stworzenia dobrych driverów (vide ska-
nery Primax), co jednak powinno się zmienić, niektóre zaś same zaczynają odpowiednie sterowniki opracowy-
wać (np. Creative Labs)), a te z kolei zależą od ilości użytkowników właśnie. Ich ciągle rosnąca liczba na pewno
dobrze wróży przyszłości Linuksa. Być może kiedyś komputery kupowane w sklepach będą tańsze o 400 zł,
pracowały stabilniej i szybciej (nie mam tu na myśli ciągłego rozwoju sprzętu) a użytkownicy będą bardziej z
nich zadowoleni? Zobaczymy, ale jestem dobrej myśli.
Tomasz "Manwe" Olszewski
|
NAJTAŃSZA REKLAMA W WIRTUALU!
Standard MPEG
Zakodowanie każdego typu informacji w postaci cyfrowej wymaga odpowiedniego standardu.
I tak powszechnie znanymi i zatwierdzonymi standardami zapisu plików graficznych jest GIF
(Graphics Interchange Format), JPEG oraz PNG (Portable Network Graphics), a
oficjalnie zatwierdzonym standardem zapisu plików z informacją multimedialną jest MPEG (Moving
Pictures Experts Group). Standard ten występuje w kilku wersjach, całkowicie
kompatybilnych wstecz. Oznacza to, iż program potrafiący zdekodować strumień MPEG-2 poradzi sobie
także z danymi w formacie MPEG-1. MPEG-1 (ISO/IEC 11172) - Zatwierdzony w
1992 r. Standaryzuje przesyłanie obrazu video wraz z dźwiękiem, przy bitrate sięgającym 1,5Mbit/s.
Wykorzystywane jest kodowanie DCT/DPCM z kompensacją ruchu. Dźwięk może być przesyłany z
częstotliwościami próbkowania: 32, 44.1 lub 48 kHz, z wykorzystaniem schematów kodowania Layer
I/II/III. Obecnie jego dekompresja dokonywana jest software'owo. MPEG-2 (ISO/IEC
13818) - Zatwierdzony w 1994 r. Jest rozszerzeniem standardu MPEG-1, pozwalającym na
kodowanie obrazu z przeplotem oraz w rozdzielczościach standardowego TV lub wyższych. Umożliwia
wykorzystanie niższych częstotliwości próbkowania dźwięku, a także przeznaczenie niższego (niż w
MPEG-1) pasma na dźwięk o małej wartości informacyjnej. Dzięki swojej specyfice znalazł on
zastosowanie w europejskim standardzie cyfrowej telewizji nadziemmej oraz satelitarnej. Ze
względu na wysoki stopień kompresji konieczna jest sprzętowa dekompresja strumienia danych MPEG-2.
MPEG-4 (ISO/IEC 14496) - Zatwierdzony w 1998 r., określany mianem
"standardu przyszłości". Strumień danych składa się obiektów, każdy obiekt może być przykładowo
sekwencją audio, wideo, zapisem syntetyzowanego dźwięku itp. Dzięki takiemu podziałowi można
optymalnie wykorzystać pasmo przydzielając je poszczególnym obiektom. MPEG-4 poszerza zakres
dostępnych prędkości przesyłu, zwiększa efektywność kompresji i dodaje wiele nowych możliwości
np. syntezę dźwięku, która dzięki międzynarodowemu zestawowi fonemów może być także zastosowana
dla języka polskiego, a także wykorzystanie muzyki w popularnym formacie MIDI. W strumieniu
MPEG-4 można również zastosować kodowanie dźwięku w formacie AAC (patrz niżej).
Prowadzono również prace nad standardem MPEG-3, ale zostały one zaniechane.
W przygotowaniu jest już standard MPEG-7 przenoszący opis informacji multimedialnej z
poziomu bezpośredniej kompresji na wyższy poziom abstrakcji. Data oficjalnego zatwierdzenia
formatu przewidywana jest na wrzesień 2001 r.
|
Jak już powyżej wspomniałem wszystkie odmiany standardu MPEG przesyłają dane audio i video
(chociaż nie tylko) za pomocą strumienia informacji o z góry ściśle określonej prędkości
(w Mbit/s). Upraszcza to ich przesyłanie za pomocą sieci komputerowych (wystarczy usługa
gwarantowanej szybkości transmisji) oraz łączy satelitarnych (rezerwacja stałego pasma).
Zapisanie danych audio w strumieniu MPEG wymaga skorzystania z jednego ze schematów kodowania
dźwięku. Oto one: MPEG Audio Layer I - prosty format kodowania dźwięku,
charakteryzujący się niewielką kompresją, znajduje zastosowanie, gdy ważna jest niewielka
złożoność programu kodującego. MPEG Audio Layer II - w stosunku do Layer I wprowadza
model psychoakustyczny mózgu ludzkiego, pozwalając na większe upakowanie danych.
Wymaga również nieco bardziej złożonego programu encodującego, chociaż znajduje zastosowanie w
przekazach multimedialnych "na żywo". MPEG Audio Layer III - znany zapewne większości
Internautom jako pliki MP3. W stosunku do poprzednich dwóch schematów umożliwia uzyskanie dużo
lepszej jakości dźwięku przy mniejszej prędkości strumienia danych. Dodatkowo prędkość ta może
być wybrana w sposób praktycznie dowolny. Schemat wymaga jednak dość złożonego programu-dekodera.
MPEG AAC (Addaptive Audio Encoding) - jest nowym standardem kompresji audio,
zapewniającym bardzo wysoką jakość już przy paśmie 64kbit/s. Umożliwia umieszczenie w jednym
strumieniu wielu niezależnych kanałów audio, 16 z nich może być przeznaczone na wielojęzyczne
wersje tej samej audycji. Ten schemat kodowania jest jeszcze bardzo słabo rozpowszechniony, a
dostępne programy dekodujące nie zachwycają jakością dźwięku. Mimo to format powinien szybko się
rozpowszechnić, dzięki jego ewidentnym zaletom nad obecnie panującym Layerem III.
Powyższe warstwy kodowania również są całkowicie zgodne w dół tzn. posiadając program zdolny
odkodować strumień Audio Layer III możemy być pewni, iż poradzi on sobie także ze
schematami II oraz I.
A co to wszystko dla nas znaczy?
Przede wszystkim to, iż użytkownicy sprzętu elektronicznego mają do dyspozycji jednolity,
tabilny i elastyczny format przekazu informacji multimedialnej. Format, który już
niejednokrotnie próbował być wypierany przez rozwiązania innych firm, takie jak MS Video, WAVE
czy RealAudio/RealVideo. Owszem, rozwiązania te mogą sprawować się lepiej w pewnej,
wąskiej klasie zastosowań, jednak moim zdaniem nic nie prześcignie potęgi otwartego standardu.
Za miesiąc postaram się scharakteryzować dostępne oprogramowanie oraz sposoby kodowania i
dekodowania dźwięku MPEG Audio.
Paweł Grajewski
|
NAJTAŃSZA REKLAMA W WIRTUALU!
Podgrzana sprawa
Kilka dni temu wpadł mi w ręce ostatni numer jednej z renomowanych gazet polskiego rynku wydawniczego, w którym odnalazłem artykuł, zawierający szczegółowe wskazówki, dotyczące tzw. "overclockingu", czyli po naszemu: "podkręcania procka". Oprócz rzetelnych informacji natury czysto technicznej, można było doszukać się w artykule wypowiedzi rzekomych specjalistów komputerowych, stanowczo sprzeciwiających się podobnym praktykom. Według owych fachowców metoda sztucznego podkręcania zegara procesora może (czyt.: musi) powodować poważne problemy w działaniu układu, a w skrajnych przypadkach może prowadzić nawet do jego przepalenia. "Specjaliści" twardo obstają przy swoim stanowisku, iż "lepiej dać więcej, ale za to mieć pewność...". Nie muszę chyba dodawać, czym zajmują się owi "spece" na co dzień - są oczywiście właścicielami sklepów i firm komputerowych! Bo któż inny, jak właśnie nie oni, miałby interes w przekonywaniu potencjalnego klienta do zakupu procesora droższego (czyt. Pentium II 400), zalegającego miesiącami na półce sklepowej, niż tańszego (czyt. Celeron 300A), który po podkręceniu na 450Mhz uzyskuje podobne osiągi? Któż inny przekonywałby kupującego do wydania większej, zamiast mniejszej sumy pieniędzy, oferując w zamian to samo? Poza tym, cóż innego mógłby powiedzieć właściciel renomowanej firmy sprzedającej części komputerowe, jeśli nie to, iż praktyki "overclockingu" są rzeczą wysoce niepożądaną. Czy mógłby powiedzieć to, co myśli naprawdę, wyznać, że: "sam se w chacie podkręca procka, tylko do gazety tak nie może powiedzieć, bo go Intel zjedzie i tak naprawdę, to nie rozumie ludzi, którzy kupują tę samą jakość za dwukrotnie wyższą cenę"? Wszyscy doskonale wiemy, jakimi prawidłami rządzi się rynek, ale czy próba nakłonienia klienta do zawarcia transakcji, w gruncie rzeczy, mniej dla niego opłacalnej, jest rzeczą godną pochwały? Czy groźby utraty gwarancji, zachwiania stabilności działania czy wręcz zupełnego zniszczenia procesora ze strony sprzedających, nie działają ze zdwojoną siłą szczególnie na laików komputerowych? Czyż to właśnie nie oni, pod wpływem złowieszczych
przepowiedni oferenta, decydują się na zakup zestawu droższego, lecz z drugiej
strony - wg "specjalistów" - pewnego w działaniu? Demagogii "lichwiarzy" ulegają przede
|
wszystkim ludzie, nie mający zielonego pojęcia o komputerach - napaleni na "overclocking", o którym usłyszeli od znajomych, zmieniający jednak szybko zdanie w sprawie zakupu zestawu w obliczu czarnych wizji "przepalenia", nakreślanych przez sprzedającego. Wydawać by się mogło jednak, iż wcale nie trzeba być specem komputerowym, by znaleźć realne podstawy ku zakupieniu właśnie przykładowego Celerona celem jego przetaktowania. Mając bowiem do dyspozycji proste urządzenie liczące (kalkulator, względnie giętki umysł - przy. aut.), łatwo jest dość do wniosku, że nawet po zakupie i nieudanej próbie "podkręcania" słabszego procesora, zakończonej przepaleniem układu (odsetek przypadków bliski zeru), pozostaje w naszej kieszeni jeszcze przynajmniej tyle pieniędzy, iż możemy sobie pozwolić na drugi. Mamy zatem szansę na powtórny eksperyment. Niestety, w przypadku procesora droższego, na podobny luksus nie moglibyśmy sobie pozwolić. Abstrahując od tego, że przypadki awarii zdarzają się niezwykle rzadko (zazwyczaj wśród niedoświadczonych użytkowników), na obalenie stanowiska ww. "specjalistów" można by znaleźć jeszcze gros argumentów. Jednak nie trzeba chyba ich wszystkich tutaj przytaczać, aby zdać sobie sprawę z obłudy, bijącej wręcz od sprzedających, próbujących przekabacić na swoją stronę niczego nieświadomych profanów w dziedzinie komputerów. Do kogóż bowiem innego, jak nie właśnie do biednych laików skierowane są słowa odżegnujące od pomysłu przetaktowywania? Czy przeciętnie doświadczony użytkownik komputera, posiadający pewną wiedzę o sposobie jego działania, jest w skłonny ulec podobnym, idiotycznym argumentom? Czy kogokolwiek o zdrowym, realistycznym podejściu do życia jest w stanie przekonać bełkot quasi-specjalistów o rzekomych wadach "overclockingu" w obliczu jego niewątpliwej
opłacalności? Niewątpliwie istnieją pewne zagrożenia i wady powyższej metody przyspieszania systemu; jedną z nich jest zapewne szybsze zużycie materiału, w którego wykonany jest układ. Wg "specjalistów" błędy rachunkowe mogą w takim wypadku pojawić się już po dwóch latach użytkowania. Któż jednak myśli o ewentualnych anomaliach w działaniu procesora, mogących wystąpić za dwa lata, kiedy to będzie on już wysłużonym reliktem przeszłości, wymagającym, tak czy owak, wymiany?
Czy kazuistyka naciągaczy powinna wpływać na nas przy podejmowaniu tak ważnej decyzji, jaką niewątpliwie jest zakup komputera? Czy powinniśmy zawierzać ludziom, pragnącym wzbogacić się na naszej niewiedzy? Czy ich zysk jest godzien naszych pieniędzy?
Życzę rozsądku.
Paweł Otto
|
NAJTAŃSZA REKLAMA W WIRTUALU!
Nieopisane i opisane błędy Windows (1)
Przez 10 godzin męczyłem Windows 98 by wykrzesać z niego jakikolwiek
błąd. Nawet testy w Microsofcie nie mogły się równać z moimi. Po jakichś
dóch godzinach stwierdziłem, że nic z tego nie będzie. Nie miałem racji coś
zaczęło się dziać ! Oto co zdząrzyłem znaleźć:
Błąd pierwszy;
przy użyciu trybu MS-DOS bardzo często zdarzają się nie wyjaśnione wpadki.
To pierwsza z nich. Ni z tego ni z owego uruchamiając Tryb MS-DOS pojawiło
się pytanie [T,N]?_ Odpowiedź była ... oczywista. Chodziło o T czyli
kompletne zawieszenie się systemu. Jeśli jednak przypadkiem wpisał ktoś N,
komputer potrafił warknąć kilkanaście razy tabliczkami "Program spowodwał
błąd i zostanie zamknięty".
Błąd drugi;
C:\WINDOWS\A:
Brak gotowości podczas odczytu na dysku A
Przerwij, pOnów, Zrezygnuj?p
Bierzący dysk nie jest już być prawidłowy>
Kali mówić, że Windows być prawidłowy...
|
Błąd trzeci;
Program CVT z niewytłumaczalnych przyczyn potrafi anulować konwersje...
[Wywołane zostało polecenie CVT D:]
Konwertuje 16-bitowy system plików FAT na 32-bitowy system plików FAT
Użycie: CVT D: gdzie D jest dyskiem przeznaczonym do konwersji
Konwersja została anulowana
OK
Błąd czwarty;
MS Internet Explorer (znienawidzony przez wielu) przedstawia poziom
rozdwojenia jaźni komputera...
Góra okna: C:\WINDOWS\web\folder.htt - Microsoft Internet Explorer
Treść okna: A:\nie jest dostępny (mimo, że w tytule chodziło o folder na
dysku C)
Urządzenie nie jest gotowe
Błąd piąty;
Chyba najbardziej znany błąd Windows, nadal nie wiem co oznacza moduł
[nieznany], ale wiem na pewno, że mi jest on znany od czasów Windows 95.
FONTVIEW spowodował błąd: nieprawidłowa stron w module [nieznany] przy
0000:00000015.
Rejestry: ...
To na razie tyle...
Mateusz "Matt" Żydek
|
NAJTAŃSZA REKLAMA W WIRTUALU!
|