o ksiazkach wydawanych przez Akademicka Oficyne Wydawnicza, ktorych autorami sa przede wszystkim pracownicy Instytutu Podstaw Informatyki Polskiej Akademii Nauk w Warszawie

W serii wydawniczej"PROBLEMY WSPOLCZESNEJ NAUKI. TEORIA i ZASTOSOWANIA" ukazuja sie wartosciowe pozycje prezentujace aktualny stan wiedzy w wybranych dziedzinach nauki i adresowane sa do polskich srodowisk naukowych i wszystkich tych, ktorzy pragna poglebic swoja wiedze i rozwinac wlasne zainteresowania. Szczegolowy program wydawniczy serii, opracowany we wspolpracy z wybitnymi naukowcami z kraju i z zagranicy, podzielony jest na grupy tematyczne:

W gronie autorow mozna znalezc wybitne autorytety naukowe i znane nazwiska tworcow wspolczesnej nauki - polskiej i swiatowej.

Monografie naukowe publikowane w naszej serii wydawniczej czesto sa podstawa do uzyskania przez ich autorow stopnia naukowego doktora, doktora habilitowanego czy tytulu naukowego profesora w okreslonym zakresie nauki. Tytuly prezentowane jako podreczniki akademickie wielokrotnie wyrozniane sa nagroda Ministra Edukacji Narodowej. Wszystkie pozycje wydane w tej serii zostaly wysoko ocenione przez Komitet Badan Naukowych przy ocenie efektywnosci polskich placowek naukowych.

Zainteresowanych ta inicjatywa wydawnicza zapraszamy do wspolpracy - prof. dr hab. Leonard Bolc, Instytut Podstaw Informatyki Polskiej Akademii Nauk, ul. Ordona 21, 01-237 Warszawa, tel. (0-prefiks-22) 836 28 41, fax 837 65 64, e-mail: bolc@ipipan.waw.pl

Ksiazki wydane przez Wydawnictwo EXIT mozna zamowic pod adresem: lang @ exit.pl lub telefonicznie (0-prefiks-22) 823-70-45

Kosztami wysylki obciaza sie zamawiajacego.

Ksiazki z serii "Problemy Wspolczesnej Nauki. Teoria i Zastosowania" dostepne sa w ksiegarniach technicznych na terenie calego kraju. W Warszawie sa to m.in. ksiegarnie:

  • Ksiegarnia MDM, ul. Piekna 31/37, 00-677 Warszawa, tel. (0-prefiks-22) 629-59-12, fax (0-prefiks-22) 628-85-38, www.mdm.com.pl, e-mail: mdm@mdm.com.pl
    Ksiegarnia prowadzi wysylkowa sprzedaz ksiazek za zaliczeniem pocztowym

  • Oficyna Ksiegarsko-Wydawnicza ELEKTRONIKA R. Wojcik i S-ka, ul. Mokotowska 51/53, 00-534 Warszawa, tel./fax: (0-prefiks-22) 628-16-14 email: wwa1@ke.pl

  • Ksiegarnia PLJ, ul. Wilcza 45, Warszawa, tel. (0-prefiks-22) 628-90-34 email: ksiegarnia@plj.pl

  • Ksiegarnie ELEKTRONIKA, ul. Minska 25 p. 329, 03-808 Warszawa, tel./fax (0-prefiks-22) 870-66-28, 870-66-43, e-mail: ksiegarnie@rm.com.pl


    W serii "Problemy Wspolczesnej Nauki, Teoria i Zastosowania" ukazaly sie nastepujace ksiazki:

    1. Stanislaw Bylka, Ryszarda Rempala,
      Wybrane zagadnienia matematycznej teorii zapasow
    2. A. Przepiorkowski, A. Kupsc, M. Marciniak, A. Mykowiecka,
      Formalny opis jezyka polskiego. Teoria i implementacja
    3. M.A. Klopotek,
      Inteligentne wyszukiwarki internetowe
    4. S.T. Wierzchon,
      Sztuczne systemy immunologiczne. Teoria i zastosowania
    5. J. Cytowski,
      Metody i algorytmy sztucznej inteligencji w cyfrowym przetwarzaniu sygnalow
    6. L. Bolc, K. Dziewicki, P. Rychlik, A. Szalas,
      Wnioskowanie w logikach nieklasycznych. Automatyzacja wnioskowania
    7. K. Subieta,
      Slownik terminow z zakresu obiektowosci
    8. K. Subieta,
      Obiektowosc w projektowaniu i bazach danych
    9. W. Skarbek,
      Multimedia. Algorytmy i standardy kompresji.
    10. E. Hajnicz,
      Reprezentacja logiczna wiedzy zmieniajacej sie w czasie
    11. L. Bolc, K. Dziewicki, P. Rychlik, A. Szalas,
      Wnioskowanie w logikach nieklasycznych. Podstawy teoretyczne
    12. J. Cytowski,
      Algorytmy genetyczne. Podstawy i zastosowania
    13. K. Subieta,
      Ingres - system zarzadzania relacyjna baza danych
    14. J.R. Thompson, J. Koronacki,
      Statystyczne sterowanie procesem. Metoda Deminga etapowej optymalizacji jakosci
    15. W. Skarbek,
      Metody reprezentacji obrazow cyfrowych
    16. W. Mokrzycki,
      Encyklopedia przetwarzania obrazow
    17. L. Bolc, J. Zaremba,
      Wprowadzenie do uczenia sie maszyn
    18. L. Bolc, A. Mykowiecka,
      Podstawy przetwarzania jezyka naturalnego. Wybrane metody formalnego zapisu skladni
    19. E. Dobryjanowicz,
      Podstawy przetwarzania jezyka naturalnego. Wybrane metody analizy skladniowej
    20. A. Mykowiecka,
      Podstawy przetwarzania jezyka naturalnego. Metody generowania tekstow


    21. Mariusz Nieniewski,
      Segmentacja obrazow cyfrowych. Metody segmentacji wododzialowej
    22. Katarzyna Stapor,
      Automatyczna klasyfikacja obiektow
    23. Janusz Sosnowski,
      Testowanie i niezawodnosc systemow komputerowych
    24. BIOSYSTEMY
      Redaktorzy: J. Doroszewski, R. Tarnecki, W. Zmyslowski Tom 1 monografii "Biocybernetyka i Inzynieria Biomedyczna 2000" pod redakcja Macieja Nalecza
    25. Boleslaw Pochopień,
      Arytmetyka w systemach cyfrowych
    26. Piotr Szczepaniak,
      Obliczenia inteligentne, szybkie przeksztalcenia i klasyfikatory
    27. Zygmunt Wrobel, Robert Koprowski,
      Praktyka przetwarzania obrazow w programie MATLAB
    28. BIOMECHANIKA I INZYNIERA REHABILITACYJNA
      Redaktorzy: R. Bedziński, K. Kedzior, J. Kiwerski, A. Morecki, K. Skalski, A. Wall, A. Wit. Tom 5 monografii "Biocybernetyka i Inzynieria Biomedyczna 2000" pod redakcja Macieja Nalecza Tom wydany przy wspolpracy Polskiego Towarzystwa Biomechaniki
    29. Zygmunt Vetulani,
      Komunikacja czlowieka z maszyna. Komputerowe modelowanie kompetencji jezykowej
    30. Norbert Jankowski,
      Ontogeniczne sieci neuronowe. O sieciach zmieniajacych swoja strukture
    31. BIOMATERIALY.
      Redaktorzy: Stanislaw Blazewicz, Leszek Stoch Tom 4 monografii "BIOCYBERNETYKA I INZYNIERIA BIOMEDYCZNA 2000" pod redakcja Macieja Nalecza. Tom wydany przy wspolpracy Polskiego Towarzystwa Ceramicznego
    32. OBRAZOWANIE BIOMEDYCZNE.
      Redaktorzy: Leszek Chmielewski, Juliusz Lech Kulikowski, Antoni Nowakowski. Tom 8 monografii "BIOCYBERNETYKA I INZYNIERIA BIOMEDYCZNA 2000" pod redakcja Macieja Nalecza. Tom wydany przy wspolpracy Towarzystwa Przetwarzania Obrazow
    33. Krzysztof Giaro, Marcin Kamiński,
      Wprowadzenie do algorytmow kwantowych
    34. Oleg Tikhonenko,
      Modele obslugi masowej w systemach informacyjnych
    35. Kazimierz Trzesicki,
      Logika i teoria mnogosci. Ujecie systematyczno-historyczne
    36. Andrzej Chwojnowski,
      SUCHA CHEMIA budowa, zasady dzialania, odczyt i sposoby otrzymywania testow
    37. J. Kacprzyk, D. Wagner (editors)
      Group Decisions and Voting
    38. M. Krawczak, A. Jakubowski, P. Konieczny, R. Kulikowski, A. Miklewski, G. Szkatula
      Aktywne zarzadzanie inwestycjami finansowymi. Wybrane zagadnienia
    39. M. Krawczak
      Multilayer Neural Systems and Generalized Net Models
    40. R. Maniewski, A. Liebert
      Metoda laserowo-dopplerowska w badaniach mikrokrazenia krwi
    41. J. Gutenbaum
      Modelowanie matematyczne systemow
    42. J. Grabowski, E. Nowicki, C. Smutnicki
      Metoda blokowa wzagadnieniach szeregowania zadan
    43. SYSTEMY KOMPUTEROWE I TELEINFORMATYCZNE W SLUZBIE ZDROWIA
      Redaktorzy tomu: E. Kacki, J. L. Kulikowski, A. Nowakowski,E. Waniewski. Tom 7 monografii "BIOCYBERNETYKA I INZYNIERIA BIOMEDYCZNA2000" pod redakcja Macieja Nalecza.
    44. J. Povstenko
      Wprowadzenie do metod numerycznych
    45. E. Toczylowski
      Optymalizacja procesow rynkowych przy ograniczeniach
    46. W. Malina, S. Ablameyko, W.Pawlak
      Podstawy cyfrowego przetwarzania obrazow
    47. P. Tatjewski
      Sterowanie zaawansowane obiektow przemyslowych. Struktury i algorytmy.
    48. A. Czyzewski, B. Kostek, H. Skarzynski
      Technika komputerowa w audiologii, foniatrii i logopedii
    49. FIZYKA MEDYCZNA
      Redaktorzy: G. Pawlicki, T.Palko, N. Golnik, B. Gwiazdowska, L. Krolicki. Tom 9 monografii BIOCYBERNETYKA I INZYNIERIA BIOMEDYCZNA 2000 pod redakcja Macieja Nalecza
    50. E. Rosolowski,
      Cyfrowe przetwarzanie sygnalow w automatyce elektroenergetycznej
    51. BADANIA OPERACYJNE I SYSTEMOWE WOBEC WYZWAN XXI WIEKU: Spoleczenstwo informacyjne a badania operacyjne i zarzadzanie. Pod redakcja J. W. Owsinskiego i A. Straszaka
    52. BADANIA OPERACYJNE I SYSTEMOWE WOBEC WYZWAN XXI WIEKU: Metody i techniki analizy informacji i wspomagania decyzji. Pod redakcja Z. Bubnickiego, O. Hryniewicza, R. Kulikowskiego
    53. BADANIA OPERACYJNE I SYSTEMOWE WOBEC WYZWAN XXI WIEKU: Modelowanie i optymalizacja. Metody i zastosowania. Pod redakcja J. Kacprzyka i J. Weglarza
    54. C. Smutnicki,
      Algorytmy szeregowania
    55. R. Tadeusiewicz,
      Spolecznosc Internetu
    56. B. Cyganek,
      Komputerowe przetwarzanie obrazow trojwymiarowych
    57. K. Janiszowski,
      Identyfikacja modeli parametrycznych w przykladach
    58. L. Banachowski, K. Stencel,
      Bazy danych. Projektowanie aplikacji na serwerze
    59. SZTUCZNE NARZADY
      Redaktorzy: M. Darowski, T. Orlowski, A. Werynski, J.M. Wojcicki. Tom 3 monografii BIOCYBERNETYKA I INZYNIERIA BIOMEDYCZNA 2000 pod redakcja Macieja Nalecza
    60. J.M. Koscielny,
      Diagnostyka zautomatyzowanych procesow przemyslowych
    61. K. Cieslicki,
      Hydrodynamiczne uwarunkowania krazenia mozgowego
    62. M. Dobosz,
      Wspomagana komputerowo statystyczna analiza wynikow badan
    63. I. Duleba,
      Metody i algorytmy planowania ruchu robotow mobilnych i manipulacyjnych
    64. BIOPOMIARY.
      Redaktorzy: W. Torbicz, L. Filipczynski, R. Maniewski, M. Nalecz, E. Stolarski. Tom 2 monografii BIOCYBERNETYKA I INZYNIERIA BIOMEDYCZNA 2000 pod redakcja Macieja Nalecza
    65. M. Lentner,
      ORACLE. System zarzadzania baza danych. Podrecznik uzytkownika
    66. A. Lachwa,
      Rozmyty swiat zbiorow, liczb, relacji, faktow, regul i decyzji
    67. SIECI NEURONOWE,
      Redaktorzy W. Duch, J. Korbicz, L. Rutkowski, R. Tadeusiewicz. Tom 6 monografii BIOCYBERNETYKA I INZYNIERIA BIOMEDYCZNA 2000 pod redakcja Macieja Nalecza
    68. J. Mandziuk,
      Sieci neuronowe typu Hopfielda. Teoria i przyklady zastosowan
    69. K. Tchon, A. Mazur, I. Duleba, R. Hossa, R. Muszynski,
      Manipulatory i roboty mobilne. Modele, planowanie ruchu, sterowanie
    70. W. Skarbek,
      Multimedia - sprzet i oprogramowanie
    71. R. Janikowski,
      Zarzadzanie ekologiczne
    72. A. Janiak,
      Wybrane problemy i algorytmy szeregowania zadan i rozdzialu zasobow
    73. A. Piegat,
      Modelowanie i sterowanie rozmyte
    74. A. Mrozek, L. Plonka,
      Analiza danych metoda zbiorow przyblizonych. Zastosowania
    75. E. Lipowska-Nadolska, M. Morawski,
      Tablice systoliczne. Problemy wybrane.
    76. M. Nieniewski,
      Morfologia matematyczna w przetwarzaniu obrazow
    77. R. Tadeusiewicz,
      Elementarne wprowadzenie do techniki sieci neuronowych z przykladowymi programami
    78. A. Czyzewski,
      Dzwiek cyfrowy. Wybrane zagadnienia teoretyczne, technologia, zastosowania
    79. K. Wojciechowski,
      System z niepewnoscia ograniczona. Model, analiza i modyfikacja. Podejmowanie decyzji i reguly decyzyjne
    80. P. Adamczewski,
      Wdrozeniowe uwarunkowania zintegrowanych systemow informatycznych
    81. P. Zielinski,
      Systemy informatyczne dla bankowosci w zarysie
    82. L. Banachowski,
      Bazy danych. Tworzenie aplikacji
    83. D. Rutkowska,
      Inteligentne systemy obliczeniowe. Algorytmy genetyczne i sieci neuronowe w systemach rozmytych
    84. D. Figura,
      Obiektowe bazy danych
    85. E. Rafajlowicz, W. Myszka,
      LATEX - zaawansowane narzedzia
    86. E. Rafajlowicz,
      Algorytmy planowania eksperymentu z implementacjami w srodowisku Mathematica
    87. G. Bryll,
      Metody odrzucania wyrazen
    88. Z. Vetulani, W. Abramowicz, G. Vetulani,
      Jezyk i technologia
    89. L. Polkowski, M. Szczuka,
      Elementy matematyki dla studentow kierunkow informatycznych.
    90. A. Wakulicz-Deja,
      Podstawy systemow wyszukiwania informacji. Analiza metod
    91. Z. Suraj, B. Komarek,
      GRAF - System graficzny konstrukcji i analizy sieci Petriego
    92. J. Chromiec, E. Strzemieczna,
      Sztuczna inteligencja. Podstawowe metody konstrukcji i analizy systemow eksperckich
    93. J. Korbicz, A. Obuchowicz, D. Ucinski,
      Sztuczne sieci neuronowe. Podstawa i zastosowania
    94. M. Byrska,
      Ochrona programu komputerowego w nowym prawie autorskim
    95. E. Gatnar,
      Metody modelowania jakosciowego
    96. M. Muraszkiewicz, H. Rybinski,
      Bazy danych
    97. R. Tadeusiewicz,
      Sieci neuronowe
    98. A. Szalas,
      Zarys dedukcyjnych metod automatycznego wnioskowania


    1. Stanislaw Bylka, Ryszarda Rempala, Wybrane zagadnienia matematycznej teorii zapasow. Akademicka Oficyna Wydawnicza EXIT, Warszawa 2003, s. 248 ISBN 83-87674-62-1

      W srodowisku ekonomistow "teoria zapasow" wiaze sie z zarzadzaniem produkcja, dystrybucja, magazynowaniem, zaopatrzeniem i zbytem. Matematycy kojarza ja ze sterowaniem procesami kumulacji. W naszych rozwazaniach przywiazujemy wage zarowno do opisu modeli zjawisk ekonomicznych i zwiazanych z nimi zadań decyzyjnych, jak i do stosowanych metod matematycznych. Zasadniczym celem jest jednak rozwiazywanie problemow decyzyjnych. Stad tez matematyczny aspekt badań znajduje sie w centrum uwagi prezentowanych rozwazań. Ksiazka sklada sie z dwu czesci. W pierwszej - autorstwa Stanislawa Bylki - polozono nacisk na modele nazywane w literaturze lańcuchami zaopatrzenia i zbytu. Problemy decyzyjne zwiazane z modelami formulowane sa w jezyku teorii gier i programowania dynamicznego. W drugiej - autorstwa Ryszardy Rempaly - rozwaza sie modele produkcji, dystrybucji i magazynowania oraz zwiazane z nimi zagadnienia optymalizacji.


    2. Adam Przepiorkowski, Anna Kupsc, Malgorzata Marciniak, Agnieszka Mykowiecka, Formalny opis jezyka polskiego. Teoria i implementacja. Akademicka Oficyna Wydawnicza EXIT, Warszawa 2002, s. 385, ISBN 83-87674-35-4

      Celem niniejszej monografii jest przedstawienie formalnego opisu wybranych zjawisk jezyka polskiego oraz implementacja prototypu parsera (tj. programu okreslajacego strukture skladniowa wypowiedzen) jezyka polskiego opartego na tym opisie. W ksiazce zawarte zostaly szczegolowe opisy zjawisk tak systematycznych i typowych dla jezyka polskiego, jak koordynacja, roznorakie zwiazki zgody czy nadawanie wartosci przypadka, ale takze opisy zjawisk, ktore nie zostaly wczesniej tak szeroko opisane, takich jak zaleznosci nielokalne w zdaniach wzglednych, dalekie uzgodnienie negacji czy tez koreferencja zaimkow anaforycznych. Praca niniejsza zawiera takze opis implementacji prototypu parsera jezyka polskiego opartego na zaproponowanych tutaj rozwiazaniach teoretycznych. Ksiazka ta adresowana jest do czterech grup czytelnikow:

      • do informatykow zainteresowanych automatycznym przetwarzaniem jezykow naturalnych, przede wszystkim jezyka polskiego,
      • do matematykow i logikow zainteresowanych zaksjomatyzowanym opisem jezykow naturalnych,
      • do osob zainteresowanych jezykiem polskim, jego skladnia, zjawiskami z pogranicza skladni i semantyki oraz z pogranicza skladni i morfologii,
      • do lingwistow zainteresowanych wspolczesnymi teoriami lingwistycznymi.


    3. Mieczyslaw Alojzy Klopotek, Inteligentne wyszukiwarki internetowe. Akademicka Oficyna Wydawnicza EXIT, Warszawa 2001, s. 332, ISBN 83-87674-31-1

      Obok ciezkiej pracy fizycznej wymiana informacji nalezy do najwazniejszych czynnikow postepu cywilizacyjnego ludzkosci. Stad przykladano zawsze wielka wage do rozwoju technik przekazywania informacji, ale rozwoj cywilizacyjny doprowadzil do paradoksalnej sytuacji, ze czlowiek, niegdys spragniony "nowinek", dzis nie jest w stanie skonsumowac ich strumienia. Stad naglaca stala sie potrzeba selekcji informacji dla potrzeb poszczegolnych ludzi. Niezbednym warunkiem dla mozliwosci selekcji jest permanentna dostepnosc zrodel poszczegolnych informacji. Takim zrodlem stal sie w ostatnim czasie Internet, a szczegolnie jego usluga WWW (World Wide Web). Ale sama dostepnosc informacji nie jest warunkiem wystarczajacym. Konieczny jest element aktywny: mozliwosc poszukiwania i znalezienia interesujacej informacji. Te role pelnia od lat stale doskonalone wyszukiwarki internetowe. Ocenia sie, ze systemy wyszukiwania informacji w przyszlosci jeszcze bardziej niz obecnie beda odgrywac istotna role w rozwoju gospodarki, biznesu, nauki i edukacji. Aby mozliwy byl dalszy postep w dziedzinie wyszukiwarek internetowych, potrzebny jest doplyw nowych idei i nowych kadr, ktore znalyby dotychczasowy stan rozwoju dziedziny. Niniejsza ksiazka stanowi probe zebrania wiedzy z roznych obszarow informatyki, niezbednej do konstrukcji i rozwoju wyszukiwarki internetowej: technik prezentacji dokumentow na WWW (jezyk HTML), technologie programowania w WWW (jezyk Java, skrypty CGI, serwlety), technologie przetwarzania jezyka naturalnego, technologie systemow uczacych sie. Ksiazka adresowana jest przede wszystkim do studentow informatyki, mlodych naukowcow i programistow, ktorzy pragna znalezc dla siebie atrakcyjne i nosne pole do dzialalnosci naukowej czy tez praktycznej. Wiedza na temat obecnego potencjalu wyszukiwarek oraz ich technicznej i koncepcyjnej konstrukcji moze okazac sie przydatna dla osob trudniacych sie dzialalnoscia gospodarcza, biznesem, pracujacych w administracji publicznej itd., gdyz moze to byc dla nich impulsem do znalezienia nowych, czesto nieoczekiwanych mozliwo ci zastosowan juz obecnie istniejacych technologii, co rowniez moze przyczynic sie do powaznego postepu w tej dziedzinie informatyki.


    4. Slawomir T. Wierzchon, Sztuczne systemy immunologiczne. Teoria i zastosowania. Akademicka Oficyna Wydawnicza EXIT, Warszawa 2001, s. 280, ISBN 83-87674-30-3

      Ksiazka o charakterze monograficzno-podrecznikowym zawiera wprowadzenie do teorii i zastosowan sztucznych systemow immunologicznych wykorzystujacych zasady funkcjonowania ukladu odpornosciowego kregowcow - najbardziej zlozonego "myslacego" systemu, jaki wystepuje na naszej planecie. Zainteresowanie informatykow sposobem przetwarzania informacji przez uklad odpornosciowy wynika z faktu, ze laczy on w sobie cechy sieci neuronowych, systemow klasyfikujacych, samoorganizujacych sie systemow analizy danych oraz wnioskowania wykorzystujacego przypadki. W ksiazce omowiono wyczerpujaco podstawowe mechanizmy rzadzace zachowaniem sie limfocytow (glownych "aktorow" bioracych udzial w odpowiedzi immunologicznej) i sposoby translacji tych mechanizmow na algorytmy uczenia maszynowego, analizy i drazenia danych oraz algorytmy optymalizacyjne. Wiekszosc metod przedstawiono na poziomie meta-algorytmow, ktore zaimplementowano i zilustrowano przykladowymi symulacjami komputerowymi. Zasadnicza zaleta omawianych algorytmow jest ich implementacyjna prostota. Do czesci z tych algorytmow przedstawiono w Dodatku kody zrodlowe programow. Bogata bibliografia umozliwia prowadzenie samodzielnych studiow w tym zakresie. Ksiazka przeznaczona jest dla osob zainteresowanych nowoczesnymi efektywnymi metodami przetwarzania informacji, glownie dla studentow wszystkich kierunkow studiow technicznych, ekonomicznych i zwiazanych z biologia, a takze dla doktorantow i pracownikow naukowych. Ksiazka moze byc takze czytana przez uczniow szkol srednich, z uwagi na niewielki zakres odwolan do matematyki wyzszej.


    5. Jerzy Cytowski, Metody i algorytmy sztucznej inteligencji w cyfrowym przetwarzaniu sygnalow. Akademicka Oficyna Wydawnicza PLJ, Warszawa 1999, s. 157, ISBN 83-7101-423-6

      Ksiazka prezentuje podstawy teorii analizy sygnalow i systemow cyfrowych. Sygnaly przenosza informacje o stanie i zachowaniu sie ukladow fizycznych. Z tego powodu wiele systemow informatycznych generuje wyniki w postaci sygnalow. Coraz doskonalsze sposoby obserwacji i rejestracji sygnalow sprawiaja, ze ich przetwarzanie wymaga magazynowania i analizowania bardzo duzej ilosci danych. Glownym celem niniejszej ksiazki jest analiza metod przetwarzania sygnalu mowy (kodowanie) oraz sygnalu elektrokardiograficznego (filtracja). Sa to problemy zlozone obliczeniowo i do ich rozwiazywania autor proponuje wykorzystanie algorytmow sztucznej inteligencji. Przedstawione sa strategie przeszukiwania w zastosowaniu do kodowania oraz algorytm genetyczny wykorzystany do projektowania filtru. Czytelnikami ksiazki moga byc wszyscy zainteresowani problemami przetwarzania sygnalow oraz metodami sztucznej inteligencji, a w szczegolnosci studenci wyzszych lat studiow technicznych i informatycznych.


    6. Leonard Bolc, Krzysztof Dziewicki, Piotr Rychlik, Andrzej Szalas, Wnioskowanie w logikach nieklasycznych. Automatyzacja wnioskowania. Akademicka Oficyna Wydawnicza PLJ, Warszawa 1998, s. 159, ISBN 83-7101-403-1

      Prezentowana ksiazka stanowi drugi tom dwutomowej monografii poswieconej wnioskowaniu w logikach nieklasycznych. Opracowanie to obejmuje takie formalizmy, jak logiki modalne, logiki wielowartosciowe i mechanizmy wnioskowania niemonotonicznego. W pierwszym tomie przedstawione zosta y podstawy teoretyczne wnioskowania w wybranych logikach nieklasycznych. Tom drugi poswiecony jest zagadnieniom automatyzacji procesu wnioskowania. Ksiazka wymaga od czytelnika pewnego przygotowania z zakresu logiki i metod automatycznego wnioskowania. Adresowana jest do studentow kierunkow matematycznych i informatycznych oraz szerokiego grona praktykow wykorzystujacych metody logiczne w projektowaniu i implementacji zlozonych systemow komputerowych, w ktorych jest niezbedne podejmowanie decyzji na podstawie wnioskow wyplywajacych z posiadanej przez system wiedzy.


    7. Kazimierz Subieta, Slownik terminow z zakresu obiektowosci. Akademicka Oficyna Wydawnicza PLJ, Warszawa 1999, s. 290, ISBN 83-7101-407-4

      Obiektowosc jest stosunkowo nowym zjawiskiem ideologicznym, ktore jest czesto wiazane z najbardziej nowoczesnymi koncepcjami i technologiami wspolczesnej informatyki. Wsrod nich mozna wymienic jezyki C++, Smalltalk, Java i Eiffel, standardy COBRA, COM, ODMG i SQL3, metodyki analizy i projektowania OMT, OPEN, BON, OOAD i Objectory, notacje UML, systemy Oracle-8, Informix Server, Orbix, O2, Gemstone, ObjectStore i wiele, wiele innych tworow. Rownie popularne staly sie pojecia charakteryzujace obiektowosc, takie jak: obiekt, tozsamosc, klasa, typ, metoda, dziedziczenie, hermetyzacja, polimorfizm. Co one oznaczaja? Jaki jest ich stosunek do nowoczesnych jezykow, standardow, systemow, metodyk i technologii? Czytanie literatury informatycznej, czesto odwolujacej sie do pojec obiektowosci, moze byc utrudnione ze wzgledu na gaszcz terminow, akronimow, nazw jezykow, systemow, metodyk itd. Celem slownika jest z jednej strony uporzadkowanie polskiej terminologii z zakresu obiektowosci, zas z drugiej strony wyjasnienie w lakonicznej, encyklopedycznej formie znaczenia wielu terminow. Slownik jest archipelagiem malych wysepek w oceanie wiedzy, ktore moga ulatwic ogolna orientacje w temacie, przyczynia sie do zrozumienia wielu kwestii i wspomoga Czytelnika podczas glebszych studiow dotyczacych konkretnych tematow zwiazanych z obiektowoscia.Slownik zawiera ok. 1500 terminow. Wsrod nich znajduja sie propozycje polskiej terminologii, wraz z odpowiednikami angielskimi i lakonicznym wyjasnieniem znaczenia, wyjasnienia popularnych akronimow wystepujacych w literaturze angielskiej (ktore przenikaja do literatury polskiej), nazwy jezykow i systemow oraz nazwiska slawniejszych tworcow. Slownik jest niezbedna pozycja w bibliotece studenta informatyki, dydaktyka, pracownika naukowego oraz dowolnego innego specjalisty z zakresu informatyki, ktoremu zalezy na sledzeniu postepu w zakresie nowoczesnych informatycznych technologii.


    8. Kazimierz Subieta, Obiektowosc w projektowaniu i bazach danych. Akademicka Oficyna Wydawnicza PLJ, Warszawa 1998, str. 283, ISBN 83-7101-401-5

      Okreslenie "obiektowy" stalo sie modnym slowem-brzeczykiem, ktore jest czesto wiazane z najbardziej nowoczesnymi koncepcjami i technologiami wspolczesnej informatyki. Wsrod nich mozna wymienic jezyki C++, Smalltalk, Java i Eiffel, standardy CORBA, COM, ODMG i SQL3, metodyki analizy i projektowania OMT, OPEN, BON, OOAD i Objectory, notacje UML, systemy Oracle-8, Informix US, Orbix, O2, Gemstone, ObjectStore i wiele, wiele innych tworow. Rownie popularne staly sie pojecia charakteryzujace obiektowosc, takie jak: obiekt, tozsamosc, klasa, typ, metoda, dziedziczenie, hermetyzacja, polimorfizm. Co one oznaczaja? Co to jest obiektowosc? Co to oznacza, ze pewien jezyk, system, standard lub produkt jest "obiektowy"? Obiektowosc, od pierwszych publikacji na temat obiektowych jezykow programowania, stala sie przedmiotem gloryfikacji, wiary i rozbudzonych nadziei. Z drugiej strony, spotyka sie ona z niezrozumieniem, niechecia, demagogia, niska swiadomoscia dotyczaca tego, jakie sa jej motywy, wlasnosci i konsekwencje. Celem ksiazki jest dostarczenie wiedzy o wiekszosci aspektow i pojec obiektowosci, ktora pozwolilaby na dalsze samodzielne poruszanie sie w literaturze, szczegolnie dotyczacej obiektowej analizy i projektowania oraz obiektowych baz danych. Ksiazka prezentuje obiektowosc jako zjawisko ideologiczne i techniczne w informatyce oraz omawia pojecia obiektowosci bez przywiazywania sie do konkretnych jezykow, systemow lub metodyk obiektowych. Moze byc wiec dobrym punktem startowym do dalszych, bardziej ukierunkowanych studiow. Oprocz kwestii ogolnych ksiazka omawia standard obiektowych baz danych ODMG oraz zunifikowana notacje UML. Zawiera takze angielsko-polski slownik terminow z zakresu obiektowosci (750 hasel). Ksiazka jest przeznaczona dla studentow, doktorantow oraz dla tych wszystkich informatykow, ktorzy chcieliby wiedziec na temat obiektowosci nieco wiecej niz to, co jest zawarte w popularnej literaturze opisujacej konkretne jezyki, metodyki i produkty okreslane jako obiektowe.


    9. Wladyslaw Skarbek, Multimedia. Algorytmy i standardy kompresji. Akademicka Oficyna Wydawnicza PLJ, Warszawa 1998, s. 406, ISBN 83-7101-385-X

      Ksiazka poswiecona jest wybranym problemom reprezentacji danych w systemach multimedialnych. Przedstawione sa algorytmy i standardy kompresji informacji multimedialnej. Miedzy innymi omowiono popularne metody kompresji obrazow: oparte na DCT, falkowe, fraktalne i stosujace kwantyzacje wektorowa. Prezentuje sie standardy kompresji tekstu, obrazu i dzwieku, w tym GIF, PNG, JPEG, MPEG i H.26x. W monografii dyskutuje sie problemy efektywnej realizacji poszczegolnych metod kompresji, a takze przedstawia nowe trendy w tej dziedzinie, takie jak: algorytmy drugiej generacji, kompresja zachowujaca semantyke obrazu i kompresja zorientowana obiektowo (np. system PHOTOBOOK). Dla czytelnika bardzo pozytecznym bedzie zapoznanie sie z uzupelniajaca pozycja publikowana w wydawnictwie PLJ: Multimedia - Sprzet i oprogramowanie pod redakcja Wladyslawa Skarbka.


    10. Elzbieta Hajnicz, Reprezentacja logiczna wiedzy zmieniajacej sie w czasie. Akademicka Oficyna Wydawnicza PLJ, Warszawa 1996, s. 294, ISBN 83-7101-288-8

      Czas jest pojeciem niezwykle istotnym dla ludzkiego myslenia i dzialania. Choc czesto nie zdajemy sobie z tego sprawy, poslugujemy sie tym pojeciem praktycznie w kazdej chwili naszego zycia. Skoro czas jest pojeciem tak podstawowym, jest oczywiste, ze wraz ze wzrostem zastosowan komputerow w wielu dziedzinach zycia niezbedna okazala sie mozliwosc poslugiwania sie tym pojeciem w wielu programach komputerowych. Podstawowe obszary zastosowan czasu to przetwarzanie jezyka naturalnego, planowanie dzialan zmierzajacych do osiagniecia okreslonego celu (np. w robotyce), przetwarzanie ciagow obrazow - tzw. scen (np. w balistyce), temporalne bazy danych itp. Literatura w jezyku polskim na temat reprezentowania wiedzy ogolnej o swiecie w powiazaniu ze specyficzna wiedza na temat czasu i jego budowy jest dosyc uboga. Oddawana do rak Panstwa ksiazka w istotnym stopniu wypelnia te luke. Zawiera ona przeglad rozwiazan dotyczacych reprezentacji wiedzy zmieniajacej sie w czasie opartych na jezyku logicznym (klasycznym lub modalnym). Duzy nacisk zostal polozony na wskazanie struktury czasu stanowiacej podstawe kazdego z prezentowanych rozwiazan, sposobu reprezentowania podstawowych pojec - zdarzen, faktow, procesow - w danej strukturze oraz na wskazanie ich sily i slabosci w porownaniu z innymi prezentowanymi podejsciami. Ksiazka ta sklada sie z dwoch czesci: pierwsza z nich zawiera logiki klasyczne, druga logiki modalne. Kazda czesc rozpoczyna sie rozdzialem prezentujacym rozne teorie czasu (struktur czasu, nie reprezentacji wiedzy zaleznej od czasu), odpowiednio w logikach klasycznych i modalnych. Czesc pierwsza zawiera ponadto trzy rozdzialy, w ktorych logiki pogrupowane zostaly w zaleznosci od budowy uzytych w nich struktur czasu (punktowe, punktowo/przedzialowe, przedzialowe). Natomiast w czesci drugiej rozwiazania zostaly pogrupowane w zaleznosci od tego, czy operatory modalne dotycza wylacznie czasu, czy tez czasu i wiedzy. Ksiazka przeznaczona jest dla studentow i pracownikow naukowych roznych kierunkow zainteresowanych reprezentacja logiczna wiedzy zmieniajacej sie w czasie. Nie wymaga specjalnego przygotowania, poza podstawowa wiedza o formalizmach logicznych.


    11. Leonard Bolc, Krzysztof Dziewicki, Piotr Rychlik, Andrzej Szalas. Wnioskowanie w logikach nieklasycznych. Podstawy teoretyczne. Akademicka Oficyna Wydawnicza PLJ, Warszawa 1995, s. 347, ISBN 83-7101-288-8

      Prezentowana ksiazka stanowi pierwszy tom dwutomowej monografii poswieconej wnioskowaniu w logikach nieklasycznych. Opracowanie to obejmuje takie formalizmy jak logiki modalne, logiki wielowartosciowe i mechanizmy wnioskowania niemonotonicznego. W pierwszym tomie przedstawione zostaly podstawy teoretyczne wnioskowania w wybranych logikach nieklasycznych. Tom drugi poswiecony bedzie automatyzacji procesu wnioskowania. Ksiazka opatrzona jest wstepem wprowadzajacym czytelnika w problematyke wnioskowania formalnego i jego automatyzacji na przykladzie logiki klasycznej. Ksiazka adresowana jest do studentow kierunkow matematycznych i informatycznych oraz szerokiego grona praktykow wykorzystujacych metody logiczne w projektowaniu i implementacji zlozonych systemow komputerowych, w ktorych jest niezbedne podejmowanie decyzji na podstawie wnioskow wyplywajacych z posiadanej przez system wiedzy.


    12. Jerzy Cytowski, Algorytmy genetyczne. Podstawy i zastosowania. Akademicka Oficyna Wydawnicza PLJ, Warszawa 1996, s. 102, ISBN 83-7101-255-7

      W ostatnich latach prowadzone sa intensywne badaniach nad zastosowaniem metod sztucznej inteligencji, a szczegolnie algorytmow genetycznych i sieci neuronowych. Badania te doprowadzily do stworzenia wielu zastosowan, ktore udowodnily swoja skutecznosc. Algorytmy genetyczne sa klasa algorytmow nasladujacych procesy doboru naturalnego. Algorytmy genetyczne sa metodami przeszukiwania przestrzeni potencjalnych rozwiazan, lecz w odroznieniu od innych badaja zawsze zbior kandydatow do rozwiazania zwany populacja. Elementami populacji sa chromosomy reprezentowane za pomoca lancuchow genow. W kolejnych generacjach (etapach algorytmu genetycznego) populacja jest przeksztalcana przez operatory genetyczne oraz mechanizmy selekcji. Operatory (takie jak mutacja i krzyzowanie) przekazuja informacje pomiedzy chromosomami. Mechanizmy selekcji z najwiekszym prawdopodobienstwem promuja chromosomy najlepsze (wedlug wartosci funkcji oceniajacej), lecz slabsze elementy populacji maja szanse przetrwania. Ksiazka przedstawia budowe i dzialanie algorytmu genetycznego dla roznych zadan. Prezentuje sposob reprezentacji danych, algorytmy i wyniki testowe. W analizach algorytmow koncentruje sie na problemie zlozonosci obliczeniowej, czyli nakladow obliczeniowych (takich jak czas czy pamiec) niezbednych do wyznaczenia rozwiazania. Ksiazka przedstawia komputerowa realizacje algorytmu genetycznego. Kolejne etapy algorytmu sa zapisane w postaci procedur. Teoretyczna czesc ksiazki poswiecona jest porownaniu metod przeszukiwania przestrzeni rozwiazan, wlaczajac w to analize rozwiazan problemu komiwojazera. Kilka rozdzialow poswieconych jest praktycznym zastosowaniom algorytmow genetycznych. Analizowane sa problemy klasyfikacyjne, automatycznego wnioskowania, rozpoznawania wzorcow oraz analizy obrazow. Ksiazka adresowana jest do kregu praktykow zajmujacych sie oprogramowaniem, prezentujac uzyteczne narzedzie rozwiazywania wielu rodzajow problemow. Ksiazka jest rowniez interesujaca dla inzynierow, informatykow oraz studentow zainteresowanych problemami sztucznej inteligencji.


    13. Kazimierz Subieta, Ingres - system zarzadzania relacyjna baza danych. Akademicka Oficyna Wydawnicza PLJ, Warszawa 1994 s. 131, ISBN 83-7101-144-X

      Ksiazka prezentuje podstawowe cechy systemu zarzadzania baza danych Ingres, w szczegolnosci rozne aspekty architektury i wlasnosci funkcjonalne systemu. Szczegolna uwage poswieca sie narzedziom, umozliwiajacym tworzenie zastosowan z baza danych, w tym szerokiej gamie jezykow programowania. Ich szczegolnie wazna odmiana sa jezyki czwartej generacji (4GL). Sporo uwagi poswieca sie tez jezykowi SQL, stanowiacemu w systemie Ingres podstawowy srodek dostepu do bazy danych. Wyjasnione sa cechy systemu uzasadniajace uzycie okreslenia "inteligentny", w tym aktywne reguly, wizje i procedury bazy danych. Przedstawiono takze cechy systemu Ingres kwalifikujace go jako system otwarty, w tym zalozenia architektury klient-serwer, dostep do odleglych baz danych (Ingres/Net), praca z rozproszona baza danych (Ingres/Star) oraz bramki umozliwiajace dostep do obcych baz danych. Prezentacja jest uzupelniona wieloma przykladami. Istotnym fragmentem ksiazki jest slownik wyjasniajacy znaczenie podstawowych terminow i akronimow wystepujacych w opisach i dokumentacji systemu Ingres oraz wazniejszych pojec i terminow wystepujacych w literaturze poswieconej bazom danych. Material zawarty w ksiazce powinien byc przystepny dla srednio zaawansowanego informatyka posiadajacego minimum wiadomosci o bazach danych. Ksiazka moze tez stanowic podstawe wstepnego kursu (6-10 godzin) systemu Ingres.


    14. James R. Thompson, Jacek Koronacki, Statystyczne sterowanie procesem. Metoda Deminga etapowej optymalizacji jakosci. Akademicka Oficyna Wydawnicza PLJ, Warszawa 1994, s. 285, ISBN 83-7101-138-5

      Systematyczne i konsekwentne wprowadzenie statystycznych metod poprawiania jakosci produkcji, znanych dzis jako metody statystycznego sterowania procesem, rozpoczelo sie po II wojnie swiatowej i wiaze sie z osoba W. Edwardsa Deminga. Chociaz prof. Deming byl Amerykaninem, jego podejscie do kontroli jakosci zostalo najszybciej zrozumiane i ze znakomitym skutkiem zastosowane w Japonii. Statystyczne sterowanie procesem to w glownej mierze zespol prostych i skutecznych technik, sluzacych wykrywaniu zaburzen w stabilnym przebiegu procesu produkcji. Systematyczne wykrywanie takich zaburzen i usuwanie ich przyczyn rownoznaczne jest z etapowa optymalizacja jakosci. Metody statystycznego sterowania procesem obejmuja takze etap projektowania lub zmian produkcji i opieraja sie wowczas na statystycznych metodach planowania doswiadczen i analizy powierzchni odpowiedzi oraz na metodach programowania nieliniowego w warunkach losowych. Zaczatkiem ksiazki byly kursy prowadzone w zakladach produkcyjnych i uslugowych w USA i w Polsce. Pierwsza czesc ksiazki moze zainteresowac kazdego czytelnika, niezaleznie od jego przygotowania matematycznego. Do zrozumienia dalszych rozdzialow potrzebna jest znajomosc statystyki w zakresie odpowiadajacym podstawowym kursom prowadzonym na uczelniach technicznych, rolniczych i ekonomicznych. Ksiazka powinna zainteresowac technikow, inzynierow i statystykow. Moze byc tez podstawa kursow politechnicznych lub podobnych na trzecim lub czwartym roku studiow.


    15. Wladyslaw Skarbek, Metody reprezentacji obrazow cyfrowych. Akademicka Oficyna Wydawnicza PLJ, Warszawa 1993, s. 400, ISBN 83-7101-059-1

      Ksiazka poswiecona jest tym metodom reprezentacji obrazow cyfrowych, ktore decyduja o efektywnosci procesow wizualizacji, skladowania i transmisji obrazow. Pierwsza czesc prezentuje zagadnienia konwersji obrazow, w tym techniki drukowania, budowy tablicy kolorow LUT, kwantyzacji skalarnej i wektorowej. Omowiono zarowno stosowane w praktyce tradycyjne metody jak i nowe rozwiazania bazujace na metodzie deterministycznego i symulowanego wyzarzania oraz na podejsciu neuralnym. Druga czesc przedstawia zagadnienia kompresji obrazow binarnych, szarych i kolorowych. Rozdzialy o kodowaniu binarnym zawieraja rowniez komplet informacji na temat algorytmow kompresji plikow. Oprocz standardow CCITT, DPCM oraz JPEG czytelnik znajdzie obszerny material na temat nowych idei kompresji, w tym metode filtrow hierarchicznych (wavelets) i metode fraktalna. W rozdziale dwudziestym, ostatnim, autor zawarl wlasna teorie transformacji typu "patchwork", ktora prowadzi do aktualnie najszybszego i jakosciowo najlepszego algorytmu kompresji fraktalnej. Kod tego algorytmu, zapisany w jezyku C, znajduje sie w dodatku do ksiazki. Badania te byly prowadzone przez autora i finalizowane w Imperial College w Londynie, latem 1993 roku. Glowny nacisk w monografii polozono na aspekty algorytmiczne, a wiec poprawnosc i zlozonosc proponowanych rozwiazan. Zamieszczenie dowodow, takze i klasycznych faktow, pozwala na zrozumienie tresci ksiazki bez siegania do rozleglej literatury przedmiotu. Monografia wyodrebnia z dziedziny przetwarzania obrazow problemy kwantyzacji oraz kompresji, analizuje je ze strony algorytmicznej z uwzglednieniem niezbednej wiedzy matematycznej. Jako taka stanowi ona aktualnie unikatowa pozycje na rynku wydawniczym.


    16. Wojciech Mokrzycki, Encyklopedia przetwarzania obrazow. Akademicka Oficyna Wydawnicza, Warszawa 1992, s. 86, ISBN 83-9451-4-1

      Encyklopedia jest systematycznym zbiorem ok. 400 terminow, pojec i ich wzajemnych zwiazkow z zakresu szeroko pojetego komputerowego przetwarzania obrazow (generowanie, przetwarzanie i analizowanie obrazow). Jest rownoczesnie propozycja polskiej terminologii w danej dziedzinie wiedzy. W czasie, gdy informatyka w coraz wiekszym stopniu dotyczy przetwarzania informacji obrazowej, Encyklopedia bedzie pozyteczna nie tylko dla zawodowych informatykow, zajmujacych sie problematyka grafiki komputerowej, przetwarzaniem i analiza obrazow, ale rowniez dla specjalistow z innych dziedzin nauki i techniki, zwlaszcza wykorzystujacych komputery do wspomagania projektowania itp. Korzysci z Encyklopedii moga miec rowniez studenci, zwlaszcza kierunkow informatycznych i pokrewnych. Przygotowanie Encyklopedii jest proba wciagniecia innych do dalszych systematyzacyjnych prac w zakresie szeroko rozumianego komputerowego przetwarzania obrazow.


    17. Leonard Bolc, Jacek Zaremba, Wprowadzenie do uczenia sie maszyn. Akademicka Oficyna Wydawnicza, Warszawa 1992, s. 161, ISBN 83-900451-5-X

      Prezentowana ksiazka poswiecona jest uczeniu sie maszyn (ang. machine learning). Jest to dziedzina, ktora stala sie w ostatnich latach kierunkiem wiodacym w sztucznej inteligencji i skupia na sobie uwage wielu badaczy. Z metodami uczenia sie maszyn zwiazane sa nadzieje na mozliwosc tworzenia oprogramowania samo dostosowujacego sie do zmian w jego otoczeniu. W ksiazce przedstawiono podstawowe problemy zwiazane z maszynowym przyswajaniem wiedzy. We wprowadzeniu scharakteryzowano pojecie uczenia sie, glowne kierunki badan i typologie opracowanych metod. W kolejnych rozdzialach bardziej szczegolowo omowione zostaly wybrane strategie uczenia sie maszyn. Szczegolnie duzo uwagi poswiecono metodom intuicyjnego przyswajania wiedzy. Ksiazka przeznaczona jest dla wszystkich zainteresowanych badaniami w dziedzinie sztucznej inteligencji. Mamy nadzieje, ze prezentowana ksiazka bedaca jedynie wprowadzeniem do tematyki uczenia sie maszyn zaowocuje z czasem, rowniez w naszym kraju, dalszymi publikacjami w tej tak burzliwie rozwijajacej sie obecnie na swiecie dziedzinie wiedzy.


    18. Leonard Bolc, Agnieszka Mykowiecka, Podstawy przetwarzania jezyka naturalnego. Wybrane metody formalnego zapisu skladni. Akademicka Oficyna Wydawnicza, Warszawa 1992, s. 115, ISBN 83-900451-9-2

      Ksiazka zawiera przeglad metod formalnego opisu zasad budowy syntaktycznej zdan. Prace rozpoczyna rozdzial poswiecony wprowadzeniu podstawowych pojec matematycznych stosowanych przy formalnym opisie jezykow. W kolejnej czesci przedstawiono ogolna charakterystyke roznych podejsc do problemu opisu skladni jezyka naturalnego oraz najwazniejsze kryteria, z punktu widzenia ktorych prezentowane metody moga byc porownywane. Nastepnie podano definicje gramatyki formalnej oraz jej najpopularniejszej postaci gramatyki bezkontekstowej, stanowiacej punkt poczatkowy badz uklad odniesienia dla wielu prezentowanych typow gramatyk. Kolejne rozdzialy zawieraja charakterystyke najbardziej znanych teorii. Opisano gramatyke transformacyjna, uogolniona gramatyke struktur frazowych, grupe gramatyk funkcyjnych oraz tzw. gramatyki logiczne, ktore powstaly wraz z opracowaniem jezyka programowania Prolog i wykorzystuja dostepne w nim mozliwosci. Ksiazka przeznaczona jest dla wszystkich zainteresowanych komputerowym przetwarzaniem jezyka naturalnego, moze tez stanowic wprowadzenie do problemu formalnego opisu skladni jezyka naturalnego dla lingwistow.


    19. Elzbieta Dobryjanowicz, Podstawy przetwarzania jezyka naturalnego. Wybrane metody analizy skladniowej. Akademicka Oficyna Wydawnicza, Warszawa 1992, s. 163, ISBN 83-900-451-8-4

      Ksiazka dotyczy zagadnienia komputerowej analizy skladniowej zdan i fraz jezyka naturalnego. Stanowi ona przeglad istniejacych metod budowania rozbiorow syntaktycznych wypowiedzi w jezyku naturalnym, ktorego struktury opisane sa za pomoca regul pewnej gramatyki formalnej. Prace rozpoczyna wprowadzenie do metod formalnego opisu jezykow naturalnych oraz opis sposobow tworzenia analizatorow skladniowych wykorzystujacych gramatyki bezkontekstowe. Nastepnie przedstawiono najczesciej stosowane metody budowy rozbiorow syntaktycznych zdan jezyka naturalnego. W pracy opisano tez analizator opracowany dla wybranego podzbioru jezyka polskiego w Instytucie Podstaw Informatyki PAN. Ostatni rozdzial zawiera podsumowanie omowionych metod analizy syntaktycznej i porownanie ich pod pewnymi wzgledami istotnymi z obliczeniowego punktu widzenia. Ksiazka przeznaczona jest dla wszystkich zainteresowanych komputerowym przetwarzaniem jezyka naturalnego zarowno z punktu widzenia sztucznej inteligencji, jak i lingwistyki komputerowej.


    20. Agnieszka Mykowiecka, Podstawy przetwarzania jezyka naturalnego. Metody generowania tekstow. Akademicka Oficyna Wydawnicza, Warszawa 1992, s. 134, ISBN 83-900451-2-5

      Ksiazka poswiecona jest zagadnieniu komputerowego generowania tekstow w jezyku polskim. W pracy przedstawiono najwazniejsze problemy zwiazane z automatyczna budowa zdan i laczeniem ich w dluzsze wypowiedzi. Rozwazane sa zarowno kwestie zwiazane z wyborem tresci, ktore nalezy przekazac, jak i sposob doboru slow i konstrukcji skladniowych odpowiednich dla ich wyrazenia. W pracy scharakteryzowano wybrane systemy, w ktorych zaimplementowano moduly generujace pojedyncze zdania badz teksty. Nastepnie opisano rodzaj danych niezbednych do realizacji tego zadania oraz metody ich reprezentowania. Proces generowania wypowiedzi przedstawiony zostal w podziale na trzy glowne nurty zagadnien zwiazanych odpowiednio z planowaniem tresci tekstu, ustalaniem jego struktury oraz nadaniem mu ostatecznej formy. Ksiazka przeznaczona jest dla wszystkich zainteresowanych komputerowym przetwarzaniem jezyka naturalnego zarowno z punktu widzenia sztucznej inteligencji, jak i lingwistyki komputerowej. Moze tez stanowic wprowadzenie do zagadnienia automatycznego generowania wypowiedzi dla studentow kierunkow informatycznych.


    21. Mariusz Nieniewski, Segmentacja obrazow cyfrowych. Metody segmentacji wododzialowej Akademicka Oficyna Wydawnicza EXIT, Warszawa 2005 stron 184 ISBN 83-87674-82-6

      Analiza obrazow cyfrowych jest dziedzina intensywnie rozwijajaca sie w ostatnich latach, a segmentacja obrazow jest jednym z centralnych jej problemow. Prezentowana ksiazka przedstawia zagadnienia segmentacji obrazow cyfrowych ze szczegolnym uwzglednieniem metody segmentacji wododzialowej. Metoda ta jest uznana za jedno z najdoskonalszych narzedzi segmentacji obrazu. Jednakze nie zawsze gwarantuje ona uzyskanie zadowalajacych wynikow. Szczegolne trudnosci wystepuja w przypadku obrazow naturalnych, gdzie najwazniejsze dla nas obiekty moga charakteryzowac sie slabym kontrastem. Bardzo czesto w wyniku segmentacji wododzialowej otrzymuje sie nadsegmentacje, rozumiana jako podzial obszaru, na ktorym obraz jest zdefiniowany, na wiele malych regionow, ktore nie maja swojego odpowiednika w naturze. Obszary te trzeba nastepnie polaczyc w wieksze maski odpowiadajace interesujacym nas obiektom. W niniejszej ksiazce wiele uwagi poswiecono wlasnie scalaniu regionow w wieksze maski i przedstawiono oryginalne podejscie wykorzystujace maksimum sredniego kontrastu miedzy generowana maska a jej otoczeniem. Metode te zilustrowano przykladami analizy obrazow tarczy slonecznej, obrazow MRI przekroju rdzenia kregowego oraz obrazow mammograficznych. Proponowana metoda daje sie tez przeniesc na wiele innych przypadkow. Do ksiazki jest dolaczony CD-ROM. Zawiera on wyniki otrzymane dla roznych obrazow, w wiekszej reprezentacji niz w tresci ksiazki, a szczegolnie dla mammogramow wzietych z mammograficznej bazy danych DDSM. Umozliwia to szczegolowe zapoznanie sie z wynikami uzyskanymi przez autora na duzej liczbie obrazow. Dzieki temu Czytelnik bedzie mogl samodzielnie przeprowadzic obliczenia porownawcze, jakie sa potrzebne przy opracowaniu nowych metod analizy obrazow, a w szczegolnosci ekstrakcji i klasteryzacji mikrozwapnien. W dotychczasowej literaturze nie prezentowano tak szczegolowych wynikow i materialow do porownan. Ksiazka jest przeznaczona dla naukowcow, doktorantow i studentow zajmujacych sie analiza obrazow w takich dziedzinach jak informatyka, elektronika, biocybernetyka. Moze takze byc przydatna dla mechanikow, fizykow, materialoznawcow i inzynierow ulatwiajac im zastosowanie analizy obrazow dla wlasnych potrzeb.


    22. Katarzyna Stapor, Automatyczna klasyfikacja obiektow Akademicka Oficyna Wydawnicza EXIT, Warszawa 2005 stron 268, ISBN 83-87674-83-4

      Ksiazka omawia podstawowe elementy systemow automatycznej klasyfikacji obiektow. W obrebie klasyfikacji nadzorowanej przedstawione sa empiryczne klasyfikatory Bayesa oraz klasyfikatory definiowane w sposob bezposredni, miedzy innymi maszyna wektorow podpierajacych i wielowarstwowy perceptron. Sposrod algorytmow grupowania prezentowane sa wybrane algorytmy iteracyjnej optymalizacji, algorytmy gestosciowe, grafowe oraz algorytmy wykorzystujace sieci neuronowe. Wszystkie omawiane algorytmy ilustrowane sa praktycznymi przykladami z udzialem wygenerowanych zbiorow uczacych. Ponadto pokazane sa zastosowania algorytmow klasyfikacji w systemach komputerowego widzenia: rozpoznawania map geodezyjnych i wspomagania diagnozowania jaskry w okulistyce. Ksiazka bedzie przydatna szerokiej grupie czytelnikow zajmujacych sie projektowaniem i tworzeniem systemow automatycznego rozpoznawania obiektow w roznych dziedzinach, a takze studentom kierunkow Informatyka, Automatyka i Robotyka oraz Bioinzynieria.


    23. Janusz Sosnowski, Testowanie i niezawodnosc systemow komputerowych Akademicka Oficyna Wydawnicza EXIT, Warszawa 2005 stron 372 ISBN 83-87674-86-9

      Wiarygodnosc jest podstawowym wymaganiem dla wspolczesnych urzadzen i systemow komputerowych. Wymaganie to glownie sprowadza sie do zapewnienia odpowiedniego poziomu niezawodnosci, dostepnosci, bezpieczenstwa i wydajnosci. W osiagnieciu tego celu kluczowa role odgrywaja efektywne techniki: testowanie i diagnostyka ukladow oraz modulow sprzetu informatycznego, testowanie i niezawodnosc oprogramowania, techniki maskowania oraz tolerowania bledow sprzetu i oprogramowania. Omowiono zagadnienia od poziomu ukladow cyfrowych (procesory, pamieci itp.) poprzez poziom architektury do rozproszonych systemow komputerowych ze zlozonymi technikami rekonfiguracji, zarzadzania kopiami danych itp. Duzo uwagi poswiecono analizie bledow, projektowaniu ukladow latwo testowalnych i samotestowalnych, redundancji systemowej oraz programowym technikom tolerowania i obslugi bledow. Opisywane koncepcje sa bogato ilustrowane praktycznymi przykladami i danymi z rzeczywistych systemow oraz projektow. Ksiazka jest przeznaczona dla szerokiego kregu odbiorcow: naukowcow, doktorantow i studentow zwiazanych z informatyka oraz pokrewnymi dziedzinami techniki. Moze byc cennym zrodlem wiedzy dla inzynierow zajmujacych sie projektowaniem i eksploatacja systemow informatycznych, telekomunikacyjnych, przemyslowych, elektronicznych itp.


    24. BIOSYSTEMY Redaktorzy: J. Doroszewski, R. Tarnecki, W. Zmyslowski Tom 1 monografii "Biocybernetyka i Inzynieria Biomedyczna 2000" pod redakcja Macieja Nalecza Akademicka Oficyna Wydawnicza EXIT, Warszawa 2005 stron 434, ISBN 83-87674-84-2

      Tom BIOSYSTEMY, 9-tomowej monografii "Biocybernetyka i Inzynieria Biomedyczna 2000", zostal opracowany przez zespol autorow prowadzacych od wielu lat badania naukowe. Duzy wklad w przygotowanie wydawnictwa wnioslo Polskie Towarzystwo Inzynierii Biomedycznej. W ksiazce przedstawiono jedynie wybrane zagadnienia z niezwykle obszernej tematyki dotyczacej systemow biologicznych. W poszczegolnych rozdzialach omowiono cele i metody badania biosystemow oraz aktualny stan wiedzy i wyniki prac wlasnych. Autorzy przekazali informacje o tym, w jaki sposob wyniki badan podstawowych systemow biologicznych wykorzystywane sa w naukach medycznych w zakresie szeroko rozumianej ochrony zdrowia. Material zawarty w tomie BIOSYSTEMY obejmuje problematyke mechanizmow wybranych funkcji realizowanych przez uklady: nerwowy, oddechowy, homeostazy i immunologiczny. Przedstawiono takze problematyke dotyczaca mechanizmow przekazywania informacji i roslin, ze szczegolnym uwzglednieniem zjawisk elektrycznych zachodzacych w komorkach i ich roli fizjologicznej. Ksiazka moze sluzyc jako podrecznik dla kazdego czytelnika pragnacego poglebic swoja wiedze i poznac, na wybranych przykladach, wklad badan podstawowych w rozwiazywanie problemow praktycznych.


    25. Boleslaw Pochopień, Arytmetyka w systemach cyfrowych Akademicka Oficyna Wydawnicza EXIT, Warszawa 2004 stron 272 ISBN 83-87674-78-8

      Ksiazka ma charakter zarowno zaawansowanego podrecznika akademickiego z dziedziny arytmetyki systemow cyfrowych, jak i monografii naukowej. Autor przedstawia podstawy teoretyczne oraz zastosowania w systemach cyfrowych pojec, metod oraz algorytmow stosowanych w arytmetyce. Tematyka ksiazki obejmuje m.in. istotne zagadnienia zwiazane z pozycyjnymi i resztowymi systemami liczbowymi, formatami slow liczbowych, arytmetyka staloprzecinkowa i zmiennoprzecinkowa, dokladnoscia realizacji dzialań arytmetycznych oraz z realizacja ukladow arytmetycznych. Wszystkie omawiane zagadnienia sa bogato ilustrowane starannie dobranymi przykladami, uwagami, wnioskami oraz obszernymi komentarzami wyjasniajacymi. Ksiazka bedzie przydatna szerokiemu gronu czytelnikow interesujacych sie informatyka, a w szczegolnosci projektantom i uzytkownikom systemow cyfrowych, inzynierom, uczestnikom studiow doktoranckich i podyplomowych oraz studentom takich kierunkow jak: informatyka, elektronika i telekomunikacja, automatyka i robotyka.


    26. Piotr Szczepaniak, Obliczenia inteligentne, szybkie przeksztalcenia i klasyfikatory. Akademicka Oficyna Wydawnicza EXIT, Warszawa 2004 stron 316 ISBN 83-87674-77-X

      Tytul ksiazki jest kompromisem miedzy checia dokladnego oddania zamyslu autora odzwierciedlonego w tresci a potrzeba zwiezlosci. Ksiazka jest wiec kolejno o sieciach neuronowych, logicznych i (niemal wylacznie) liniowych. Jest o szybkich przeksztalceniach dyskretnych, ktore mozna zgrabnie realizowac wlasnie w architekturach liniowych sieci neuronowych. Jest wreszcie o wybranych sposobach klasyfikacji i grupowania - tutaj niejako naturalnie rowniez pojawiaja sie sieci neuronowe. Wazny fragment stanowia rzadko spotykane w polskiej literaturze metody klasyfikacji typu SVM (support vector machines). Rezultaty uzyskiwane przez te "uczace sie maszyny" dobrze jest odnosic do wynikow uzyskiwanych za pomoca metod neuronowych. W wielu miejscach materialu zaznaczaja swoj udzial rowniez algorytmy genetyczne, programowanie genetyczne i teoria zbiorow rozmytych. Tym samym ksiazka jest o obliczeniach inteligentnych (soft computing). Ten zakreslony tu szkielet sprawia, ze dzielo mimo pewnej roznorodnosci zawiera dobrze sie uzupelniajacy i, w nadziei autora, inspirujacy material. Ksiazka moze byc przydatna szerokiemu gronu odbiorcow: naukowcom, nauczycielom akademickim, doktorantom i studentom kierunkow technicznych, zwlaszcza informatyki oraz tych kierunkow nietechnicznych, w ktorych odwaznie korzysta sie z najnowszych metod obliczeniowych.


    27. Zygmunt Wrobel, Robert Koprowski, Praktyka przetwarzania obrazow w programie MATLAB. Akademicka Oficyna Wydawnicza EXIT, Warszawa 2004 stron 270 (w tym 4 strony kolorowe), ISBN 83-87674-76-1

      Monografia jest przeznaczona dla osob interesujacych sie przetwarzaniem obrazow, ale niekoniecznie sprawnie poslugujacych sie zaawansowanymi programami komputerowymi sluzacymi do tego celu. Przedstawiono w niej "krok po kroku", jak poslugiwac sie podstawowymi funkcjami dostepnymi w programie Matlab - Image Processing w procesie przetwarzania obrazow. Kazda omawiana funkcje analizy i przetwarzania obrazu zilustrowano fragmentem algorytmu napisanego w programie Matlab oraz przykladem obrazu wejsciowego i obrazu wynikowego. Ksiazka sklada sie z czterech czesci. W pierwszej przedstawiono podstawowe zagadnienia zwiazane z cyfrowa reprezentacja obrazow w programie Matlab. W drugiej czesci przedstawiono przeksztalcenia punktowe obrazu. W trzeciej czesci przedstawiono kontekstowe przeksztalcenia obrazu. W czwartej czesci przedstawiono dwa dodatki ulatwiajace, zdaniem autorow, korzystanie z niniejszej pracy Czytelnikom nie znajacym programu Matlab. Zdaniem autorow, istotnym ulatwieniem w poslugiwaniu sie niniejsza praca jest utworzona strona internetowa http://zksb.tech.us.edu.pl/, na ktorej umieszczono wszystkie rozpatrywane przyklady.


    28. BIOMECHANIKA I INZYNIERA REHABILITACYJNA Redaktorzy: R. Bedziński, K. Kedzior, J. Kiwerski, A. Morecki, K. Skalski, A. Wall, A. Wit. Tom 5 monografii "Biocybernetyka i Inzynieria Biomedyczna 2000" pod redakcja Macieja Nalecza Tom wydany przy wspolpracy Polskiego Towarzystwa Biomechaniki Akademicka Oficyna Wydawnicza EXIT, Warszawa 2004 stron 1108, ISBN 83-87674-67-2

      BIOMECHANIKA I INZYNIERIA REHABILITACYJNA stanowi piaty tom serii "Biocybernetyka i Inzynieria Biomedyczna 2000" opracowanej i wydanej pod patronatem naukowym Komitetu Biocybernetyki i Inzynierii Biomedycznej PAN. Dzielo powstalo dzieki wspolpracy 71 autorow - badaczy i praktykow, reprezentujacych czolowe polskie osrodki naukowe i centra kliniczne. Prace koordynowalo Polskie Towarzystwo Biomechaniki przy wsparciu Instytutu Techniki Lotniczej i Mechaniki Stosowanej Politechniki Warszawskiej. Material podzielony na 20 rozdzialow zgrupowano w 5 czesciach: Biomechanika Ogolna; Biomechanika Medyczna; Biomechanika Sportu; Biomechanika Pracy, Uklady Czlowiek-Maszyna; Biomechanika Inzynierska, Ortopedyczna i Rehabilitacyjna. Na tle obecnego stanu wiedzy autorzy przedstawili najnowsze wyniki prac wlasnych. Ksiazka jest zarowno monografia przeznaczona dla pracownikow naukowych, jak i nowoczesnym podrecznikiem przydatnym dla studentow, doktorantow i osob szkolacych sie w zakresie biomechaniki i inzynierii rehabilitacyjnej.


    29. Zygmunt Vetulani, Komunikacja czlowieka z maszyna. Komputerowe modelowanie kompetencji jezykowej. Akademicka Oficyna Wydawnicza EXIT, Warszawa 2004, s. 346, ISBN 83-87674-66-4

      Celem ksiazki jest wprowadzenie Czytelnika w podstawy jednej z najstarszych a jednoczesnie ciagle nabierajacej znaczenia dziedzin informatyki, jaka jest przetwarzanie jezyka naturalnego. Dziedzina ta, od jej narodzin w latach piecdziesiatych, rozrosla sie, zajmujac spory obszar na styku dyscyplin takich jak informatyka, nauki o jezyku, matematyka, nauki kognitywne oraz biologiczne. Ksiazka poswiecona jest przede wszystkim zagadnieniom komputerowego modelowania kompetencji jezykowej czlowieka. Od ponad 50 lat zaopatrzenie w kompetencje jezykowa urzadzen wytworzonych przez czlowieka stanowi jedno z wielkich wyzwan informatyki. Dobor materialu podyktowany byl checia wyeksponowania tych zagadnien nalezacych do glownego nurtu badan w zakresie przetwarzania jezyka naturalnego, ktore byly lub sa nadal przedmiotem prac badawczych prowadzonych przez Autora. Adresatami ksiazki sa osoby pragnace rozszerzyc swoja ogolna wiedze informatyczno-lingwistyczna w zakresie technik lingwistyki komputerowej, badz chcace wlaczyc sie aktywnie do badan z tego zakresu, a takze osoby, ktore takie badania prowadza, a jednoczesnie pragna poznac prezentowane w ksiazce techniki, niekiedy alternatywne w stosunku do ich wlasnych metod. Liczymy, ze korzysc odniosa takze czytelnicy prowadzacy zajecia z zakresu przetwarzania jezyka naturalnego i dziedzin pokrewnych, a przede wszystkim studenci, uczestnicy tych zajec.


    30. Norbert Jankowski, Ontogeniczne sieci neuronowe. O sieciach zmieniajacych swoja strukture. Akademicka Oficyna Wydawnicza EXIT, Warszawa 2004, 308 stron + 8 str. kolorowych. ISBN 83-87674-65-6

      Sztuczne sieci neuronowe nawiazuja koncepcyjnie do sposobu dzialania mozgu. Cecha ontogenicznych sieci neuronowych jest ich zdolnosc do kontroli swojej struktury i zlozonosci, dzieki czemu moga elastycznie dopasowywac sie do zadanego problemu. W ksiazce przedstawiono wiele typow sieci ontogenicznych, ktore korzystajac z roznych algorytmow uczenia moga zwiekszac lub zmniejszac swoja strukture oraz wplywac na funkcje realizowane przez neurony. Metody kontroli zlozonosci struktury sieci neuronowych w istotny sposob wplywaja na ostateczne mozliwosci tych sieci. Duzy wplyw na mozliwosci i zlozonosc sieci neuronowych maja tez neurony, a dokladniej funkcje, jakie one realizuja. Opisano roznorodne funkcje, ktore moga byc realizowane przez neurony. Zaprezentowano wybrane algorytmy uczenia sieci radialnych funkcji bazowych (RBF). Jeden z rozdzialow ksiazki poswiecono metodom typu support vector machines (SVM), czyli maszynom wektorow podpierajacych. Przedstawiono takze szereg metod budowania komitetow modeli, w tym takich modeli, ktore nadzoruja swoje podmodele. Opisano metody przygotowywania danych, uzywane techniki porowny­wania algorytmow uczenia i sposoby interpretacji rezultatow.


    31. BIOMATERIALY. Redaktorzy: Stanislaw Blazewicz, Leszek Stoch Tom 4 monografii "BIOCYBERNETYKA I INZYNIERIA BIOMEDYCZNA 2000" pod redakcja Macieja Nalecza. Tom wydany przy wspolpracy Polskiego Towarzystwa Ceramicznego. Akademicka Oficyna Wydawnicza EXIT, Warszawa 2004, s. 628, ISBN 83-87674-58-3

      Tom BIOMATERIALY, bedacy jednym z 9-tomowej monografii "Biocybernetyka i Inzynieria Biomedyczna 2000", zostal przygotowany przez grono specjalistow z osrodkow badawczych wyspecjalizowanych w badaniach biomaterialow i z jednostek zajmujacych sie badaniami nad technologia materialow, wytwarzaniem i zastosowaniem dla medycyny. Celem monografii jest przekazanie aktualnej wiedzy w zakresie badań podstawowych, kryteriow doboru, rozwiazań technologicznych oraz aplikacji roznych grup materialowych dla medycyny. Zawarte sa w rozdzialach poswieconych glownym typom biomaterialow metalicznych, ceramicznych, szklistych i szklo podobnych, polimerowych oraz materialom weglowym i kompozytom z ich udzialem. Oddzielny rozdzial zostal poswiecony materialom stosowanym w kardiochirurgii. W innym rozdziale omowiono metody testowania biomaterialow in vitro i in vivo. Monografie zamyka rozdzial dotyczacy zagadnień legislacyjnych nowych biomaterialow i wyrobow medycznych w swietle nowych przepisow prawnych. Ksiazka przeznaczona jest dla osob zajmujacych sie problematyka materialowa, inzynierow pracujacych nad wytwarzaniem biomaterialow i lekarzy, ktorzy w swojej praktyce klinicznej wykorzystuja roznorodne ich postacie. Ksiazka moze byc pomocna dla studentow uczelni technicznych i medycznych, w ktorych rozwijane sa kierunki dydaktyczne i badawcze zwiazane z materialami w medycynie.


    32. OBRAZOWANIE BIOMEDYCZNE. Redaktorzy: Leszek Chmielewski, Juliusz Lech Kulikowski, Antoni Nowakowski. Tom 8 monografii "BIOCYBERNETYKA I INZYNIERIA BIOMEDYCZNA 2000" pod redakcja Macieja Nalecza. Tom wydany przy wspolpracy Towarzystwa Przetwarzania Obrazow. Akademicka Oficyna Wydawnicza EXIT, Warszawa 2004, stron 1024 + 64 kolorowe, ISBN 83-87674-63-X

      Tom OBRAZOWANIE BIOMEDYCZNE, bedacy jednym z 9-tomowej monografii "Biocybernetyka i Inzynieria Biomedyczna 2000", zawiera 22 rozdzialy opracowane przez 46 autorow, specjalistow w dziedzinie komputerowych metod analizy i przetwarzania obrazow. Rozdzialy te dotycza zarowno podstaw teoretycznych, jak i roznorodnych aspektow praktycznych przetwarzania obrazow biomedycz­nych ze szczegolnym uwzglednieniem potrzeb wspolczesnej medycznej diagnostyki obrazowej oraz badań naukowych w dziedzinie medycyny lub biologii opartych na analizie danych obrazowych. W monografii uwzgledniono m.in. takie nowe kierunki obrazowań, jak tomografia termiczna lub impedancyjna, analiza obrazow uzyskiwanych metodami jadrowego rezonansu magnetycznego, integracja multimodalnych danych obrazowych, bezinwazyjne badanie kinetyki skurczow serca, mikroskopowe badania preparatow histologicznych i cytologicznych, wyszukiwanie obrazow z baz danych obrazo­wych na podstawie opisu ich tresci. Wiele z tych opracowań oparto na oryginalnych wynikach badań prowadzonych w krajowych osrodkach naukowych, referowanych wczesniej na krajowych i miedzynarodowych konferencjach naukowych. Tom powstal dzieki wspoldzialaniu pracownikow wielu srodowisk naukowych, pod patronatem naukowym Komitetu Biocybernetyki i Inzynierii Biomedycznej PAN i przy wspoldzialaniu Towarzystwa Przetwarzania Obrazow.


    33. Krzysztof Giaro, Marcin Kamiński, Wprowadzenie do algorytmow kwantowych. Akademicka Oficyna Wydawnicza EXIT, Warszawa 2003, s. 168 ISBN 83-87674-57-5

      Pomysl budowy komputera, ktory dzialalby zgodnie z prawami fizyki kwantowej i w sposob istotny wykorzystywal te prawa, ma niemalze dwadziescia lat. Przez ten czas prowadzone byly zarowno badania teoretyczne, jak i prace nad konstrukcja komputera kwantowego. Jakkolwiek postep w dziedzinie technologii jest znaczny, to nie dysponujemy jeszcze maszynami liczacymi, ktorych dzialanie trzeba wyjasniac na poziomie fizyki kwantowej. Podejmowane dotychczas proby konstrukcji nalezy nazwac eksperymentami. W dziedzinie badań teoretycznych osiagnieto szereg waznych rezultatow. Opracowano model obliczeń kwantowych, podano pierwsze algorytmy i stworzono teorie ich zlozonosci obliczeniowej. Z tych pierwszych studiow wynika, ze komputer kwantowy moze rozwiazywac pewne zadania szybciej niz maszyny klasyczne. Brak jednak dokladnych wynikow, a sila napedowa dalszych badań jest nadzieja, ze problemy, ktorych nie mozna efektywnie rozwiazac w modelu klasycznym, beda mialy takie rozwiazanie w modelu kwantowym. Celem tej pracy jest prezentacja kwantowego modelu obliczeń. Szczegolny nacisk polozono na zagadnienia matematyczne i informatyczne. Zadbano o wyjasnienie podstaw teoretycznych, podanie pelnych dowodow poprawnosci algo­rytmow kwantowych oraz szacowanie zlozonosci obliczeniowej.


    34. Oleg Tikhonenko, Modele obslugi masowej w systemach informacyjnych. Akademicka Oficyna Wydawnicza EXIT, Warszawa 2003, s. 312 ISBN 83-87674-61-3

      W ksiazce sa przedstawione podstawowe metody i modele teorii obslugi masowej, ktorych studiowanie ma na celu wyrobienie umiejetnosci badania charakterystyk systemow informacyjnych o stochastycznym charakterze dzialania. Przedstawione w ksiazce metody badawcze to metoda rownań rozniczkowych, za pomoca ktorej analizowane sa charakterystyki markowowskich systemow obslugi, metoda zdarzeń dodatkowych oraz procesow uliniowanych i wlozonych lańcuchow Markowa, stosowane do analizy systemow semimarkowowskich. Cecha charakterystyczna ksiazki jest obecnosc wielkiej liczby zadań organicznie dopelniajacych material teoretyczny, ktorych duza czesc posiada szczegolowe rozwiazania Ksiazka jest adresowana do studentow i wykladowcow uczelni wyzszych, a takze doktorantow i wszystkich osob, wykorzystujacych w swojej dzialalnosci zawodowej modele teorii obslugi masowej.


    35. Kazimierz Trzesicki, Logika i teoria mnogosci. Ujecie systematyczno-historyczne. Akademicka Oficyna Wydawnicza EXIT, Warszawa 2003, s. 472 ISBN 83-87674-59-1

      Niniejsza ksiazka jest wykladem w ujeciu systematyczno-historycznym. Znaczy to, ze tematy logiczne i teoriomnogosciowe podjete sa w sposob i w kolejnosci wynikajacej z zamiaru ich jednolitego ujecia, a takze to, ze dazy sie do ukazania ich kontekstow historycznego oraz filozoficznego. Zarowno logika, jak i teoria mnogosci maja glebokie korzenie filozoficzne. Dobra intuicja jednego i drugiego, logiki i teorii mnogosci, nie moze wiec obyc sie bez wskazania ich zrodel filozoficznych i historii dociekań nad ich podstawowymi zagadnieniami. Ksiazka podzielona jest na dwie zasadnicze czesci. Pierwsza poswiecona jest logice. Druga zas teorii mnogosci. W czesci pierwszej korzysta sie z pewnych podstawowych pojec teoriomnogosciowych, choc w sposob systematyczny sa one wprowadzone dopiero w czesci drugiej. Wystarczajaca intuicje tych pojec, jak mozna przyjac, wynosi sie juz ze szkoly sredniej. Za to w czesci poswieconej teorii mnogosci, mozna juz korzystac z aparatury pojeciowej logiki. To podejscie implicite zaklada jednak wieksza jasnosc niektorych podstawowych pojec teoriomnogosciowych (mianowicie tych, ktore sa wykorzystane w wykladzie logiki) niz pojec logicznych.


    36. Andrzej Chwojnowski, SUCHA CHEMIA budowa, zasady dzialania, odczyt i sposoby otrzymywania testow. Akademicka Oficyna Wydawnicza EXIT, Warszawa 2003, s. 268 ISBN 83-87674-60-5

      Ksiazka ta jest najszerszym dostepnym w literaturze swiatowej przegladem zagadnień zwiazanych z suchymi testami. Suche testy to technika analityczna pozwalajaca na wykonanie wielu analiz w bardzo krotkim czasie od kilkudziesieciu sekund do kilku minut, w wielu przypadkach nawet przez osoby nie posiadajace fachowych kwalifikacji. Wiele z tych analiz mozna wykonac poza laboratorium, nawet w domu czy pod krzakiem, nad brzegiem rzeki lub jeziora. Ksiazka ta zawiera opisy testow, ich budowe, zasady dzialania, sposoby odczytu. Podaje rowniez unikalne informacje, dotyczace sposobu otrzymywania testow takze na skale techniczna. Podrecznik ten przeznaczony jest dla szerokiego kregu odbiorcow, pracownikow naukowych i studentow chemii, farmacji, ochrony srodowiska, medycyny, weterynarii czy technologii zywnosci. Jednym slowem wszedzie tam, gdzie analizy chemiczne sa niezbedne.


    37. Janusz Kacprzyk, Dariusz Wagner (editors), Group Decisions and Voting. Akademicka Oficyna Wydawnicza EXIT, Warszawa 2003, s. 255, ISBN 83-87674-55-9


    38. Maciej Krawczak, Andrzej Jakubowski, Piotr Konieczny, Roman Kulikowski, Antoni Miklewski, Grazyna Szkatula, Aktywne zarzadzanie inwestycjami finansowymi. Wybrane zagadnienia. Akademicka Oficyna Wydawnicza EXIT, Warszawa 2003, s. 480, ISBN 83-87674-54-0

      W ksiazce zwrocono uwagę, ze zalozenie o normalnosci rozkladow finansowych zmiennych losowych powoduje nieadekwatnosc modelu Markowitza i metody Value at Risk oraz koniecznosc uwzględnienia wyzszych momentow rozkladow (kurtoza, skosnosc). Przeanalizowano nowoczesne metody stochastyczne wychodzace daleko poza zalozenia o normalnosci rozkladow zmiennych losowych, tj. w szczegolnosci budowę scenariuszy rozwojowych i metodę VEC do prognozowania krotkoterminowych stop procentowych w Polsce. Zaproponowano nowe miary ryzyka: miarę CVaR i spojna miarę ryzyka Artznera oraz teorię wartosci ekstremalnych (EVT). Przedstawiono koncepcję dwuczynnikowej funkcji uzytecznosci, ktora stosuje się przy alokacji kapitalu w dzialalnosci: dochodowej, kosztowej i w systemach dochodowo-kosztowych. Opracowano metodykę zarzadzania inwestycjami na rynku instrumentow finansowych o stalym dochodzie (obligacje). Rozwiazano zagadnienie immunizacji portfela obligacji ze względu na ryzyka: nieoczekiwanych zmian poziomu stop procentowych i zmian ksztaltu krzywej dochodowosci. Przedstawiono metody inteligencji komputerowej mogace znalezc zastosowanie w zarzadzaniu finansami. Rozwazono elementy teorii chaosu deterministycznego oraz zastosowanie sztucznych sieci neuronowych do predykcji stanow szeregow czasowych. Opracowano metodę indukcyjnego uczenia maszynowego tworzaca reguly decyzyjne typu JEZELI … TO … Rozwazono mozliwosc wykorzystania teorii zbiorow rozmytych do opisu niepewnosci w podejmowaniu decyzji inwestycyjnych. Opracowano wiele programow komputerowych, np. procedury EVT, CVaR, immunizacja portfela obligacji oraz uczenia maszynowego na podstawie przykladow.


    39. Maciej Krawczak, Multilayer Neural Systems and Generalized Net Models. Akademicka Oficyna Wydawnicza EXIT, Warszawa 2003, s. 255, ISBN 83-87674-51-6

      In this book several multilayer neural networks are treated as multistage systems, and learning process in considered as a particular sort of multistage optimal control problem. On the base of dynamic programming methodology, and by introducing the gain parameter to the neuron models, several learning algorithms were developed, e.g. the first order differential dynamic programming algorithm and the heuristic dynamic programming algorithm. Additionally, the updating of learning meant as multiobjective optimisation problems in developed, the approach allows for decreasing learning time. The development of the adjoint neural networks yields direct expressions of gradient based learning algorithms. In the second part of the book the Generalized Net theory was used for modelling of neural networks processes. First, the Generalized Net models of the simulation processes, and next the Generalized Net models of learning algorithms developed in this book were introduced and discussed. Also, the Generalized Net model of the adjoint neural networks was discussed. The author of this book works for the Systems Research Institute of the Polish Academy of Sciences as well as for the Warsaw School of Information Technology (as the Vice-rector).


    40. Roman Maniewski, Adam Liebert, Metoda laserowo-dopplerowska w badaniach mikrokrazenia krwi. Akademicka Oficyna Wydawnicza EXIT, Warszawa 2003, s. 176, ISBN 83-87674-52-4

      System mikronaczyniowy jest ta częscia ukladu krazenia, ktorej badania sa wyjatkowo trudne ze względu na skomplikowana, niejednorodna budowę, mikroskopijne wymiary naczyn oraz male i zroznicowane prędkosci poruszania się krwinek. Metoda laserowo-dopplerowska wydaje się byc szczegolnie dobrym narzędziem do badan mikrokrazenia, gdyz umozliwia nieinwazyjna ocenę waznego parametru hemodynamicznego, jakim jest ukrwienie w bardzo malych objętosciach tkanki. Dodatkowo pomiar ma charakter ciagly i odbywa się w czasie rzeczywistym, a zatem mozliwe jest ciagle monitorowanie mikrokrazenia badanego pacjenta. Z tych względow, pomimo istniejacych ciagle ograniczen, metoda laserowo-dopplerowska przeszla bardzo szybko od studium badan naukowych do pierwszych aplikacji klinicznych. Brak jest dotychczas monograficznego opracowania w języku polskim poswięconego metodzie laserowo-dopplerowskiej. Zamierzeniem autorow ksiazki bylo wypelnienie tej luki i przedstawienie polskiemu czytelnikowi mozliwie pelnego obrazu rozwoju i stanu aktualnego techniki laserowo-dopplerowskiej, a takze podanie praktycznych wskazowek dotyczacych metodyki pomiarow mikroukrwienia oraz opisanie wybranych przykladow zastosowania tej techniki w badaniach klinicznych.


    41. Jakub Gutenbaum, Modelowanie matematyczne systemow. Akademicka Oficyna Wydawnicza EXIT, Warszawa 2003, str. 420, ISBN 83-87674-53-2

      W poprawionym i rozszerzonym III wydaniu ksiazki przedstawione sa podstawy metodologiczne i przyklady budowy, w uniwersalnym języku matematyki, modeli roznorodnych systemow: technologicznych, ekonomicznych, rolniczych, ekologicznych. Rozwazania rozszerzaja wiedzę na temat wyboru i poprawnosci modeli matematycznych badanych systemow, ze szczegolnym uwzględnieniem zagadnien sterowania i podejmowania decyzji optymalnych. Celem rozwazan jest umozliwienie wspolpracy między specjalistami w zakresie modelowanego systemu, analitykami systemow, informatykami, programistami komputerowymi. Aktualne wydanie poszerzono o wiele watkow, w tym o obszerny rozdzial dotyczacy zastosowania modeli sieci neuronowych i krotkie omowienie modelu chaosu. Ksiazka jest przeznaczona dla specjalistow i studentow dyscyplin, w ktorych mozliwe i celowe jest stosowanie modeli matematycznych. Autor jest profesorem w Instytucie Badan Systemowych PAN oraz w Wyzszej Szkole Informatyki Stosowanej i Zarzadzania w Warszawie.


    42. Jozef Grabowski, Eugeniusz Nowicki, Czeslaw Smutnicki, Metoda blokowa wzagadnieniach szeregowania zadan. Akademicka Oficyna Wydawnicza EXIT,Warszawa 2003, s. 396, ISBN 83-87674-49-4

      Ksiazka dotyczy problematyki szeregowania zadan. Problematyka ta wystepujezarowno w systemach produkcyjnych, jak i w systemach i sieciach komputerowych. Wksiazce przedstawia sie modele matematyczne problemow, ich wlasnosci orazalgorytmy, oparte przede wszystkim na tzw. metodzie blokowej. Metoda ta jestoryginalnym podejsciem w teorii szeregowania zadan, ktore korzystajac z prostegopojeciowo i strukturalnie modelu grafowego, wlasnosci sciezki krytycznej w grafieoraz pewnych innych stukturalnych wlasnosci problemow, pozwala projektowacalgorytmy dokladne i przyblizone o zaskakujaco dobrych wlasnosciach numerycznych.Prezentowana ksiazka jest pierwszym w jezyku polskim tak obszernym i w miarewyczerpujacym przedstawieniem metody blokowej bedacej dorobkiem wlasnymautorow. Po wprowadzeniu czytelnika w problematyke szeregowania zadan (notacja,kryteria, zlozonosc obliczeniowa) omawia sie szczegolowo trzy najbardziejpodstawowe typy problemow szeregowania: problemy jednomaszynowe, problemyprzeplywowe oraz problemy gniazdowe. Przedstawia sie takze szereg uogolnienpraktycznych, takich jak: transport, przezbrojenia, buforowanie, ograniczonapojemnosc systemu, paletyzacja. Duza liczba przykladow ilustracyjnych powoduje, zelektura ksiazki jest stosunkowo latwa, mimo jej dosc teoretycznego charakteru.Ksiazka jest adresowana dla studentow starszych lat kierunkow Automatyka iRobotyka oraz Informatyka, doktorantow, jak i do pracownikow naukowych. Moze bycona takze pomocna dla menedzerow planistow i projektantow w zakresiekrotkoterminowego zarzadzania i planowania produkcji.


    43. SYSTEMY KOMPUTEROWE I TELEINFORMATYCZNE W SLUZBIE ZDROWIA.Redaktorzy tomu: Edward Kacki, Juliusz Lech Kulikowski, Antoni Nowakowski,Edward Waniewski. Tom 9 monografii "BIOCYBERNETYKA I INZYNIERIA BIOMEDYCZNA2000" pod redakcja Macieja Nalecza. Tom wydany przy wspolpracy PolskiegoTowarzystwa Informatyki Medycznej. Akademicka Oficyna Wydawnicza EXIT,Warszawa 2003, s. 568, ISBN 83-87674-48-6

      Tom SYSTEMY KOMPUTEROWE I TELEINFORMATYCZNE W SLUZBIE ZDROWIA prezentuje 31prac 48 autorow, dotyczacych aktualnych problemow komputeryzacji medycyny wszerokim zakresie z uwzglednieniem wykorzystania Internetu. Przedstawionewyniki badan naukowych oraz praktycznych wdrozen odnosza sie glownie dodiagnostyki, terapii, edukacji medycznej oraz administracji szpitalnej.Poswiecono w pracy wiele uwagi wykorzystaniu multimediow i wirtualnejrzeczywistosci oraz odpowiednich narzedzi i metod w tworzeniu systemowmedycznych. Uwzgledniono rowniez problemy standaryzacji zapisu iprzesylania danych medycznych. Ostatni rozdzial monografii jest poswieconywspolczesnym trendom w informatyce medycznej. Tom zostal przygotowany przywspolpracy Polskiego Towarzystwa Informatyki Medycznej, przy czymuwzgledniono w nim najnowsze prace prezentowane na seminariach ikonferencjach organizowanych przez Towarzystwo.


    44. Jurij Povstenko, Wprowadzenie do metod numerycznych. Akademicka Oficyna Wydawnicza EXIT, Warszawa 2003, s. 208, ISBN 83-87674-50-8

      Podrecznik zawiera najwazniejsze wiadomosci o najczesciej stosowanych metodach numerycznych. Omawiane sa podstawowe pojecia zwiazane z obliczeniami numerycznymi, glowne metody interpolacji i aproksymacji, calkowanie i rozniczkowanie numeryczne, metody rozwiazywania zagadnien poczatkowych, metody rozwiazywania rownan nieliniowych oraz ukladow rownan liniowych. Podrecznik zawiera rowniez wiele przykladow i zadan do samodzielnego wykonania i moze byc wykorzystany przez studentow i wykladowcow szkol pedagogicznych, uniwersytetow, politechnik i wszystkich innych uczelni wyzszych, w ktorych obowiazuje przedmiot "Metody numeryczne" tak na wykladach, jak i na cwiczeniach.


    45. Eugeniusz Toczylowski, Optymalizacja procesow rynkowych przy ograniczeniach. Akademicka Oficyna Wydawnicza EXIT, Warszawa 2003, s. 384, ISBN 83-87674-47-8

      Ksiazka wprowadza Czytelnika w problematyke projektowania optymalnych mechanizmow rynkowych w systemach, w ktorych konkuruje ze soba wiele autonomicznych jednostek. Opracowany przez Autora parametryczny model rynkowy uwzglednia obrot wielu towarow przy roznorodnych ograniczeniach zasobowych. Uzyskane mechanizmy rynkowe moga byc wykorzystywane do efektywnego i sprawiedliwego rozstrzygania indywidualnych konfliktow zasobowych powstajacych przy rozdziale ograniczonych dobr i uslug. Pozwalaja one jednoczesnie na osiaganie wysokiej globalnej jakosci funkcjonowania systemu. Ostatnie rozdzialy ksiazki przedstawiaja mozliwosci zastosowania opracowanej metodologii do zarzadzania uslugami w sieci Internet oraz do poprawy konkurencyjnosci i decentralizacji rynku energii elektrycznej. Ksiazka jest przeznaczona dla stosunkowo szerokiego kregu odbiorcow: dla srodowiska akademickiego, w tym studentow kierunkow informatycznych, technicznych oraz zarzadzania, dla specjalistow, pracownikow instytucji dzialajacych na rynku energii elektrycznej, a takze Czytelnikow pragnacych poglebic swoja wiedze o mechanizmach rynkowych w takich dziedzinach zastosowan, jak handel elektroniczny, telekomunikacja i teleinformatyka, ochrona srodowiska czy rynki kompleksowych uslug oferowanych w pakietach.


    46. Witold Malina, Sergey Ablameyko, Waldemar Pawlak, Podstawy cyfrowego przetwarzania obrazow. Akademicka Oficyna Wydawnicza EXIT, Warszawa 2002, s. 138, ISBN 83-87674-44-3

      W celu efektywnego wykorzystania obrazu jako zrodla informacji nalezy przetworzyc go na postac cyfrowa. Obraz cyfrowy stanowi punkt wyjscia dla komputerowego przetwarzania obrazow. Niniejsza ksiazka prezentuje podstawy cyfrowego przetwarzania obrazow. Sklada sie z siedmiu rozdzialow, w ktorych omawia sie operacje na pikselach obrazu, histogramy, progowanie obrazow, filtry liniowe i nieliniowe, metody szkieletyzacji, wybrane operacje morfologiczne, transformacje Hougha, wyznaczanie cech geometrycznych obrazu. Ksiazka zawiera wlasne przemyslenia autorow i sporo przykladow. Adresowana jest do studentow i szerokiego grona specjalistow z roznych dziedzin, ktorzy chca szybko opanowac podstawy przetwarzania obrazow.


    47. Piotr Tatjewski, Sterowanie zaawansowane obiektow przemyslowych. Struktury i algorytmy. Akademicka Oficyna Wydawnicza EXIT, Warszawa 2002, s. 378, ISBN 83-87674-43-5

      Postepy elektroniki, inzynierii komputerowej i informatyki wywolaly szybki rozwoj techniki sterowania, przyspieszany i wymuszany walka konkurencyjna na rynku dobr przemyslowych i konsumpcyjnych. W dominujacych w praktyce sterowania strukturach warstwowych zaczelo sie upowszechniac stosowanie biezacej optymalizacji punktow pracy instalacji, zwiekszajacej efektywnosc produkcji przez ciagle dostosowywanie jej parametrow do warunkow otoczenia i wymagan odbiorcow. W strukturze biezacej optymalizacji nie wystarczaja klasyczne petle regulacyjne z liniowymi regulatorami PID, potrzeba skutecznych algorytmow regulacji wielowymiarowej, nieliniowej i uwzgledniajacej ograniczenia sygnalow - tzw. algorytmow regulacji zaawansowanej. Rozpoczynajac od omowienia zagadnien sterowania w strukturze warstwowej, w ksiazce przedstawiono algorytmy regulacji zaawansowanej i optymalizacji biezacej punktow pracy obiektow przemyslowych. W najobszerniej prezentowanym obszarze regulacji zaawansowanej omowiono nieliniowe algorytmy rozmyte typu Takagi-Sugeno i algorytmy regulacji predykcyjnej. Pierwsze z nich stanowia stosunkowo latwa w projektowaniu i skuteczna technike regulacji nieliniowej, przy tym moga byc traktowane jako naturalne rozszerzenie znanych algorytmow liniowych. Natomiast regulacja predykcyjna jest zaawansowana technika regulacji, ktora odniosla olbrzymi sukces wywierajac w ostatnich latach dominujacy wplyw zarowno na kierunki rozwoju przemyslowych ukladow regulacji, jak i prac badawczych w tym obszarze. W ksiazce omowiono najwazniejsze dla praktyki liniowe algorytmy predykcyjne, przede wszystkim DMC i GPC, jak tez algorytmy nieliniowe, w tym wazne dla efektywnych zastosowan algorytmy z biezaca linearyzacja modelu nieliniowego. W zakresie optymalizacji biezacej, najwiecej miejsca poswiecono algorytmom iteracyjnej poprawy punktu pracy w warunkach niepewnosci. Zamierzeniem autora byl taki wybor i przedstawienie materialu, aby ksiazka byla przydatna nie tylko dla pracownikow naukowych i doktorantow, ale rowniez (a moze przede wszystkim) sluzyla inzynierom projektujacym czy eksploatujacym zaawansowane algorytmy sterowania, jak tez studentom wyzszych lat studiow technicznych.


    48. Andrzej Czyzewski, Bozena Kostek, Henryk Skarzynski, Technika komputerowa w audiologii, foniatrii i logopedii. Akademicka Oficyna Wydawnicza, Warszawa 2002, s. 452, ISBN 83-87674-36-2

      Ksiazka prezentuje opracowania, ktore sa wynikiem kilkuletniej wspolpracy naukowcow z dziedziny informatyki, telekomunikacji, otolaryngologii, audiologii, psychologii, pedagogiki, logopedii i foniatrii, ktorej partnerami byli: Katedra Inzynierii Dzwieku i Obrazu Politechniki Gdanskiej prowadzona przez prof. Andrzeja Czyzewskiego oraz Instytut Fizjologii i Patologii Sluchu w Warszawie, kierowany przez prof. Henryka Skarzynskiego. Owocem wspolpracy wymienionych osrodkow jest opracowanie i wdrozenie szeregu urzadzen, programow komputerowych i systemow diagnostyczno-rehabilitacyjnych z dziedziny audiologii, foniatrii i logopedii. Ksiazka nie jest jednak tylko opisem wspomnianych opracowan, lecz stanowi zwiezle kompendium wiedzy na temat wymienionych dyscyplin ze szczegolnym uwzglednieniem elementow, ktore tworza podstawy zastosowan techniki komputerowej i mikroelektronicznej. W ksiazce zawarto ponadto material z zakresu wspolczesnych metod elektronicznej protetyki sluchu i mowy. Ksiazka jest pierwsza pozycja na krajowym i nie tylko na krajowym rynku wydawniczym, ktora w obszerny sposob prezentuje zastosowania techniki komputerowej w dziedzinach okreslonych w jej tytule. Zastosowania te sa na tyle nowe, ze wczesniej nie podejmowano prob opracowan monograficznych w tym zakresie. Moze byc wykorzystywana przez specjalistow zarowno z dziedzin technicznych, takich jak: akustyka, inzynieria biomedyczna, inzynieria dzwieku, informatyka, jak i przez lekarzy otolaryngologow, foniatrow oraz specjalistow z zakresu audiologii i logopedii. Bedzie takze przydatna uczestnikom studiow podyplomowych, studentom uczelni technicznych i akademii medycznych, specjalizujacym sie we wczesniej wymienionych dziedzinach.


    49. FIZYKA MEDYCZNA Redaktorzy: Grzegorz Pawlicki, Tadeusz Palko, Natalia Golnik, Barbara Gwiazdowska, Leszek Krolicki. Tom 9 monografii BIOCYBERNETYKA I INZYNIERIA BIOMEDYCZNA 2000 pod redakcja Macieja Nalecza . Tom wydany przy wspolpracy Polskiego Towarzystwa Fizyki Medycznej, Polskiego Towarzystwa Medycyny Nuklearnej, Komitetu Fizyki Medycznej i Radiobiologii PAN oraz Polskiego Komitetu Inzynierii Biomedycznej SEP. Akademicka Oficyna Wydawnicza EXIT, Warszawa 2002, s. 596, ISBN 83-87674-37-0

      Tom FIZYKA MEDYCZNA przygotowal zespol autorow czynnie uczestniczacych w pracach naukowych. W pracach tych bralo udzial Polskie Towarzystwo Fizyki Medycznej, Polskie Towarzystwo Medycyny Nuklearnej, a takze Komitet Fizyki Medycznej i Radiobiologii PAN i Polski Komitet Inzynierii Biomedycznej SEP. W dziele przedstawiono aktualne osiagniecia naukowe z wybranych dzialow fizyki medycznej z przykladami wlasnych prac badawczych. Ksiazka zawiera dwanascie rozdzialow. W rozdziale pierwszym, wprowadzajacym do zagadnien poruszanych w tomie, przedstawiono rys historyczny rozwoju fizyki medycznej w Polsce oraz omowiono dzialalnosc glownych organizacji miedzynarodowych zajmujacych sie fizyka medyczna i inzynieria biomedyczna. Nastepnych szesc rozdzialow poswiecono zjawiskom promieniowania jonizujacego w medycynie i ich wykorzystaniu w medycynie, w tym do radiodiagnostyki (rozdz. 2), radioterapii (rozdz. 3), dozymetrii promieniowania (rozdz. 4), oceny jakosci radiodiagnostyki i radioterapii (rozdz. 5), zagadnieniom medycyny nuklearnej (rozdz. 6) i radiacyjnej sterylizacji tkanek (rozdz. 7). W rozdziale osmym omowiono bierne wlasciwosci elektryczne tkanek oraz metody i urzadzenia do ich badan w zakresie czestotliwosci od kilku kHz do kilku GHz i ich wykorzystanie w medycynie. Ochrona radiologiczna stanowi oddzielne zagadnienie opisane w rozdziale dziewiatym. Pozostale trzy rozdzialy poswiecone sa wykorzystaniu pol elektromagnetycznych niejonizujacych do diagnostyki, terapii i rehabilitacji. Ksiazka jest monografia naukowa, a jednoczesnie stanowi nowoczesny podrecznik pomocny w szkoleniu specjalistow z zakresu fizyki medycznej i inzynierii biomedycznej, przygotowujacych sie do pracy w warunkach klinicznych czesto przy lozku chorego.


    50. Eugeniusz Rosolowski, Cyfrowe przetwarzanie sygnalow w automatyce elektroenergetycznej. Akademicka Oficyna Wydawnicza EXIT, Warszawa 2002, s. 432, ISBN 83-87674-38-9

      W ksiazce prezentowane sa metody cyfrowego przetwarzania sygnalow stosowane we wspolczesnych ukladach automatyki elektroenergetycznej, a w szczegolnosci elektroenergetycznej automatyki zabezpieczeniowej. Omowione sa algorytmy szybkich pomiarow wielkosci elektrycznych, ktore sa podstawa podejmowania decyzji przez te uklady. Przeprowadzona jest analiza wplywu roznego rodzaju zaklocen towarzyszacych zwarciom w sieci elektrycznej na dokladnosc i szybkosc oceny zdarzen w nadzorowanym systemie. Duza czesc ksiazki jest poswiecona zastosowaniu metod sztucznej inteligencji w automatyce elektroenergetycznej, w szczegolnosci do rozpoznawania i klasyfikacji zaklocen, korekcji przetwornikow pomiarowych, pomiaru wielkosci elektrycznych oraz podejmowania decyzji. Ksiazka jest glownie adresowana do Czytelnikow zwiazanych z elektroenergetyka: studentow, doktorantow i konstruktorow nowoczesnych ukladow sterowania i pomiarow w tym obszarze. Zamieszczone wprowadzenie do zagadnien zwiazanych z zakloceniami w systemie elektroenergetycznym oraz liczne przyklady ilustrujace specyfike rozwazanych problemow pozwalaja polecic te lekture rowniez specjalistom z zakresu cyfrowego przetwarzania sygnalow i metod sztucznej inteligencji, ktorzy w ten sposob moga znalezc wdzieczne pole zastosowania wlasnych pomyslow.


    51. BADANIA OPERACYJNE I SYSTEMOWE WOBEC WYZWAN XXI WIEKU: Spoleczenstwo informacyjne a badania operacyjne i zarzadzanie. Pod redakcja Jana W. Owsinskiego i Andrzeja Straszaka. Akademicka Oficyna Wydawnicza EXIT, Warszawa 2002, ISBN 83-87674-42-7

      Ksiazka zawiera zbior artykulow, poddanych scislej selekcji i procesowi recenzyjnemu, zwiazany z inicjatywa konferencji BOS (Badania Operacyjne i Systemowe), trwajaca od okolo dwudziestu lat, a w szczegolnosci z konferencja BOS 2002: "Badania operacyjne i systemowe wobec wyzwan XXI wieku". Niniejszy tom ukazuje sie wraz z dwoma innymi, rowniez zwiazanymi z ta inicjatywa. Zarowno sama konferencja BOS 2002, jak i wydanie tych trzech ksiazek jest wynikiem wspoldzialania Wyzszej Szkoly Informatyki Stosowanej i Zarzadzania w Warszawie, niepublicznej wyzszej uczelni, powstalej pod auspicjami Polskiej Akademii Nauk, jednej z najpowazniejszych szkol w swojej dziedzinie w Polsce, Instytutu Bada Systemowych PAN oraz Polskiego Towarzystwa Badan Operacyjnych i Systemowych, od poczatku glownego gospodarza konferencji BOS.
      Artykuly zawarte w niniejszym tomie dotycza najpierw ogolnych zagadnien rozwoju badan operacyjnych i analizy systemowej w warunkach tworzenia sie i przemian spoleczenstwa informacyjnego i zwiazanych z tym wyzwan, zwlaszcza wlasciwych dla sytuacji polskiej. Nastepnie prezentowane sa artykuly dotyczace poszczegolnych dziedzin istotnych dla rozwoju spoleczenstwa informacyjnego oraz jego infrastrukturalnego i gospodarczego zaplecza (np. informatyka, telekomunikacja, edukacja, ...). W szczegolnosci sporo miejsca poswiecono zarzadzaniu, stanowiacemu jedna z najobszerniejszych dziedzin zastosowan badan operacyjnych i systemowych, a zarazem poddanemu obecnie niezwykle silnej presji biezacych potrzeb i wyzwan zwiazanych z przemianiami i globalizacja, a przez to i zaostrzeniu warunkow konkurencji. Wlasciwe wykorzystanie osiagniec nauki moze pomoc nie tylko w przezwyciezaniu problemow, ale i w zapewnieniu trwalego rozwoju.


    52. BADANIA OPERACYJNE I SYSTEMOWE WOBEC WYZWAN XXI WIEKU: Metody i techniki analizy informacji i wspomagania decyzji. Pod redakcja Zdzislawa Bubnickiego, Olgierda Hryniewicza, Romana Kulikowskiego. Akademicka Oficyna Wydawnicza EXIT, Warszawa 2002, ISBN 83-87674-40-0

      Ksiazka zawiera zbior artykulow, poddanych scislej selekcji i procesowi recenzyjnemu, zwiazany z inicjatywa konferencji BOS (Badania Operacyjne i Systemowe), trwajaca od okolo dwudziestu lat, a w szczegolnosci z konferencja BOS 2002: "Badania operacyjne i systemowe wobec wyzwan XXI wieku". Niniejszy tom ukazuje sie wraz z dwoma innymi, rowniez zwiazanymi z ta inicjatywa. Zarowno sama konferencja BOS 2002, jak i wydanie tych trzech ksiazek jest wynikiem wspoldzialania Wyzszej Szkoly Informatyki Stosowanej i Zarzadzania w Warszawie, niepublicznej wyzszej uczelni, powstalej pod auspicjami Polskiej Akademii Nauk, jednej z najpowazniejszych szkol w swojej dziedzinie w Polsce, Instytutu Badan Systemowych PAN oraz Polskiego Towarzystwa Bada Operacyjnych i Systemowych, od poczatku glownego gospodarza konferencji BOS.
      Artykuly zawarte w niniejszym tomie dotycza nowych metod, rozwijanych w jednych z najbardziej przyszlosciowych dziedzin badan operacyjnych i systemowych - analizie i wspieraniu decyzji, zwlaszcza w sytuacjach wielokryterialnych i wieloosobowych, a takze analizie danych i inzynierii wiedzy. Wiele z prezentowanych prac lokuje sie w czolowce swiatowej w obrebie odpowiednich, rozpatrywanych w nich zagadnie . Ksiazka dostarcza zatem nie tylko - ograniczonego, to prawda - przegladu, a wiec i pewnej perspektywy, ale takze pokazuje szczegolnie silne strony polskiej nauki w tych dziedzinach.


    53. BADANIA OPERACYJNE I SYSTEMOWE WOBEC WYZWAN XXI WIEKU: Modelowanie i optymalizacja. Metody i zastosowania. Pod redakcja Janusza Kacprzyka i Jana Weglarza. Akademicka Oficyna Wydawnicza EXIT, Warszawa 2002, ISBN 83-87674-41-9

      Ksiazka zawiera zbior artykulow, poddanych scislej selekcji i procesowi recenzyjnemu, zwiazany z inicjatywa konferencji BOS (Badania Operacyjne i Systemowe), trwajaca od okolo dwudziestu lat, a w szczegolnosci z konferencja BOS 2002: "Badania operacyjne i systemowe wobec wyzwa XXI wieku". Niniejszy tom ukazuje sie wraz z dwoma innymi, rowniez zwiazanymi z ta inicjatywa. Zarowno sama konferencja BOS 2002, jak i wydanie tych trzech ksiazek jest wynikiem wspoldzialania Wyzszej Szkoly Informatyki Stosowanej i Zarzadzania w Warszawie, niepublicznej wyzszej uczelni, powstalej pod auspicjami Polskiej Akademii Nauk, jednej z najpowazniejszych szkol w swojej dziedzinie w Polsce, Instytutu Badan Systemowych PAN oraz Polskiego Towarzystwa Bada Operacyjnych i Systemowych, od poczatku glownego gospodarza konferencji BOS.
      Artykuly zawarte w niniejszym tomie dotycza zasadniczego jadra badan operacyjnych i systemowych, a wiec modelowania systemow i procesow rzeczywistych i ich optymalizacji - zarowno metod, jak i zastosowan. Tak wiec, obok artykulow prezentujacych postepy metodyczne tom zawiera rozdzialy poswiecone wybranym dziedzinom zastosowan, w szczegolnosci klasycznym zadaniom przydzialu i szeregowania prac, a takze finansom i transportowi. Wyniki z tych dziedzin maja szczegolne znaczenie dla rozwoju gospodarczego, zarowno na poziomie mikro, jak i makro. Jest obiecujacym fakt, ze sporo prac prowadzonych jest w bliskim kontakcie z praktyka. Praktyka jest przeciez nie tylko zrodlem i inspiracja formulowanych zadan i metod teoretycznych, ale ich ostatecznym sprawdzianem.


    54. Czeslaw Smutnicki, Algorytmy szeregowania. Akademicka Oficyna Wydawnicza, Warszawa 2002, s. 322, ISBN 83-87674-39-7

      Ksiazka adresowana jest do studentow, doktorantow oraz absolwentow specjalizujacych sie w dziedzinie szeregowania zadan, projektantow systemow zarzadzania, planowania i sterowania produkcja jednostkowa, krotko- i srednioseryjna, projektantow systemow zrobotyzowanych, a takze informatykow zajmujacych sie implementacja algorytmow komputerowych. Zagadnienia szeregowania modeluja funkcjonowanie rzeczywistych systemow wytwarzania i moga byc stosowane do rozwiazywania praktycznych problemow optymalizacji i sterowania, wystepujacych m.in. w konwencjonalnych i elastycznych systemach wytworczych, systemach operacyjnych maszyn cyfrowych, systemach wspomagajacych podejmowanie decyzji, systemach zarzadzania. Ksiazka zawiera przeglad wybranych problemow szeregowania zadan wraz z bogactwem metod i algorytmow stosowanych do ich rozwiazywania, w duzej czesci projektowanych i badanych przez autora. Wskazuje alternatywne techniki i podejscia polecane dla konkretnych klas problemow praktycznych. Pokazuje przyklady zastosowan, narzedzia programowe i algorytmiczne stosowane w praktyce oraz nowoczesne, zaskakujace swoja budowa i efektywnoscia, metody rozwiazywania. Przedstawiane podejscia moga byc po odpowiedniej modyfikacji stosowane rowniez do analizy wielu zlozonych problemow optymalizacji, w tym takze dyskretnej i kombinatorycznej, trudnych poprzez brak klasycznych wlasnosci analitycznych (rozniczkowalnosc, wypuklosc), wieloekstremalnosc czy tez przeklenstwo wymiarowosci. Osiagniecia teoretyczne implikuja bezposrednio poprawe jakosci komercyjnych pakietow oprogramowania, wspierajacych dzialania czlowieka w wielu dziedzinach zycia. Uzupelnieniem analiz teoretycznych zawartych w ksiazce sa kody zrodlowe algorytmow w jezyku C/C++ wraz z opisem, dostepne w witrynie internetowej autora.


    55. Ryszard Tadeusiewicz, Spolecznosc Internetu. Akademicka Oficyna Wydawnicza EXIT, Warszawa 2002, s. 302, ISBN 83-87674-33-8

      Ksiazka wprowadza czytelnika w rozne aspekty zwiazane z dzialaniami ludzi w Internecie. Nie jest to kolejna ksiazka o Internecie jako takim, tylko o Spolecznosci Internetu, czyli o dzialaniach, postawach i zachowaniach ludzi, ktorzy znalezli sie w "cyberprzestrzeni" i musza sie w niej odnalezc. Ksiazka sklada sie z rozdzialow, ktore mozna czytac w dowolnej kolejnosci, gdyz kazdy z nich porusza i w calosci omawia jakies jedno male zagadnienie zwiazane z wielkim problemem Spolecznosci Internetu. Tej, ktora jest teraz oraz (zwlaszcza!) tej, ktora bedzie. Kazdy rozdzial ma tytul dokladnie informujacy o jego zawartosci. Dzieki tym czytelnym tytulom Czytelnik zainteresowany jakims konkretnym zagadnieniem zdola je latwo odnalezc i bedzie mogl szybko dotrzec do interesujacych go tresci. Rozdzialy saaw wiekszosci takiej objeto ci, ze ich czytanie wymaga zaledwie kilku minut. Mozna je czytac od przodu, od tylu albo w miejscu, gdzie sie ksiazka przypadkowo otworzy. Te cegielki wiedzy, gromadzone w pamieci bez zadnego wysilku, pozwola nam zapewne w przyszlo ci uniknac wielu bledow, stawic czola wielu sytuacjom, powiedziec cos ciekawego na przyjeciu, nie wyglupic sie przed wlasnym dzieckiem albo zrozumiec przyniesiony przez nie szkolny kawal. Dlatego naprawde warto miec te ksiazke pod reka i zagladac do niej od czasu do czasu.


    56. Boguslaw Cyganek, Komputerowe przetwarzanie obrazow trojwymiarowych. Akademicka Oficyna Wydawnicza EXIT, Warszawa 2002, s. 305, ISBN 83-87674-34-6

      Ksiazka przedstawia techniki komputerowej analizy trojwymiarowych scen na podstawie obrazow dwuwymiarowych. Prezentuje zarowno podstawy teoretyczne, jak rowniez praktyczne implementacje komputerowe. Autor prowadzi Czytelnika, poczawszy od zarysu historii badan nad przestrzennym widzeniem scen, poprzez wyczerpujace studium technik stereoskopowej rekonstrukcji glebi obrazu - zarowno w systemie wzrokowym czlowieka, jak i w systemach technicznych - az do praktycznych rozwiazan algorytmicznych. Szeroko omowione zostaly rowniez detektory cech obrazow, takie jak detektor krawedziowy oraz tensorowy detektor lokalnego sasiedztwa pikseli. Monografie te uzupelniaja liczne dodatki poswiecone miedzy innymi podstawom geometrii rzutowej oraz zarysowi rachunku tensorowego w odniesieniu do dziedziny maszynowego przetwarzania obrazow. Ksiazka bedzie przydatna szerokiej grupie Czytelnikow zajmujacych sie przetwarzaniem obrazow, a w szczegolnosci inzynierom i studentom takich kierunkow, jak: informatyka, elektronika, automatyka oraz robotyka, jak rowniez psychologia czy tez matematyka.


    57. Krzysztof Janiszowski, Identyfikacja modeli parametrycznych w przykladach. Akademicka Oficyna Wydawnicza EXIT, Warszawa 2002, ISBN 83-87674-32-X.

      Ksiazka zawiera CD-ROM Ksiazka przedstawia mozliwosci wykorzystania technik identyfikacji statystycznej dla budowania modeli procesow dynamicznych. Podstawa proponowanego podejscia jest wykorzystanie standardowych form modeli parametrycznych. Zakres rozpatrywanych modeli obejmuje: proste struktury liniowe, modele parametryzowane funkcjami rozmytymi, jak rowniez modele w formie sztucznych sieci neuronowych. Glownym zamierzeniem autora jest zaznajomienie z problematyka identyfikacji mozliwie szerokiego grona odbiorcow, ktorzy niekoniecznie musza posiadac odpowiednie przygotowanie fachowe. Zawartosc ksiazki zostala podzielona na odrebne czesci obejmujace: I. Wprowadzenie do zagadnienia identyfikacji z przedstawieniem struktur stosowanych modeli i podstawowych aspektow obliczeniowych. II. Obszerna dyskusje wynikow identyfikacji przeprowadzona dla przykladow procesow symulowanych oraz zestawow danych z badania rzeczywistych przypadkow. III. Instrukcje wykorzystania pakietu informatycznego IDCAD (zalaczonego na CD-ROM), za pomoca ktorego zostaly wyznaczone wspomniane modele. IV. Dodatki zawierajace uzupelnienia, literature oraz skorowidz.


    58. Lech Banachowski, Krzysztof Stencel, Bazy danych. Projektowanie aplikacji na serwerze. Akademicka Oficyna Wydawnicza EXIT, Warszawa 2001, s. 309, ISBN 83-87674-26-5

      Bazy danych staly sie podstawowym skladnikiem wspolczesnych systemow informatycznych. Umiejetnosc zaprojektowania bazy danych i aplikacji korzystajacych z bazy danych jest jedna z najwazniejszych umiejetnosci wymaganych od informatykow na rynku pracy. Do tej pory brakowalo podrecznika poswieconego bazom danych i projektowaniu aplikacji bazy danych po stronie serwera, w tym uzyciu oprogramowania typu CASE wspomagajacego proces projektowy. Prezentowana ksiazka jest podrecznikiem baz danych i aplikacji korzystajacych z baz danych. Powstala na podstawie wykladow prowadzonych przez autorow w Polsko-Japonskiej Wyzszej Szkole Technik Komputerowych oraz w Instytucie Informatyki Uniwersytetu Warszawskiego. Ksiazka sklada sie w czterech czesci, ktore zawieraja odpowiednio: podstawowe metody programowania po stronie serwera bazy danych, w tym jezyk SQL i jego rozszerzenia, projektowanie baz danych i aplikacji bazodanowych przy uzyciu programu Oracle Designer wspomagajacego proces projektowania, projektowanie aplikacji bazodanowych na stronach WWW, w tym uzycie modulu Oracle PL/SQL, serwletow jezyka Java, komponentow EJB, jezykow skryptowych JSP, PHP, ASP i PSP, podstawowe informacje dotyczace architektury systemu zarzadzania baza danych, jak rowniez rozszerzenia systemu baz danych o rozproszone bazy danych i hurtownie danych. Material jest przedstawiony na przykladach zaczerpnietych z oprogramowania firmy Oracle. Ksiazka jest przeznaczona zarowno dla studentow, jak i zawodowych informatykow pragnacych poznac temat projektowania i programowania aplikacji baz danych po stronie serwera bazy danych wlaczajac w to uzycie narzedzi CASE.


    59. SZTUCZNE NARZADY. Redaktorzy: M. Darowski, T. Orlowski, A. Werynski, J.M. Wojcicki. Tom 3 monografii Biocybernetyka i Inzynieria Biomedyczna 2000 pod redakcja Macieja Nalecza. Tom wydany przy wspolpracy Polskiego Towarzystwa Inzynierii Biomedycznej. Akademicka Oficyna Wydawnicza EXIT, Warszawa 2001, s. 532, ISBN 83-87674-25-7

      Tom SZTUCZNE NARZADY, 9-tomowej monografii "Biocybernetyka i Inzynieria Biomedyczna 2000" przygotowal zespol autorow czynnie uczestniczacych w pracach naukowych. W pracach tych bralo udzial Polskie Towarzystwo Inzynierii Biomedycznej. W dziele przedstawiono stan wiedzy w zakresie wybranych metod i urzadzen stosowanych do wspomagania utraconych funkcji narzadow wewnetrznych. Podano przyklady wlasnych prac badawczych. Ksiazka zawiera osiem rozdzialow. W pierwszych trzech rozdzialach omowiono metody wspomagania ukladu krazenia, w tym opisano badania prowadzone w Polsce nad sztucznym sercem i sztucznymi zastawkami serca. Rozdzial czwarty jest poswiecony ukladowi oddychania. Zagadnienia dotyczace sztucznej nerki i dializy otrzewnowej przedstawiono w rozdziale piatym. Zastosowanie filtrow membranowych i sorbentow do detoksykacji krwi omowiono w rozdziale szostym. W rozdziale siodmym opisano metody wspomagania trzustki u diabetykow. Ostatni rozdzial omawia narzady hybrydowe, zawierajace czesc techniczna i biologiczna. Ksiazka moze byc pomocna dla studentow, pracownikow naukowych i praktykow zainteresowanych diagnostyka medyczna.


    60. Jan Maciej Koscielny, Diagnostyka zautomatyzowanych procesow przemyslowych. Akademicka Oficyna Wydawnicza EXIT, Warszawa 2001, s. 418, ISBN 83-87674-27-3

      Tematyka monografii dotyczy diagnostyki procesow przemyslowych, prowadzonej w czasie rzeczywistym w sposob automatyczny przez system komputerowy. Zadaniem diagnostyki procesow przemyslowych jest wczesne wykrywanie oraz lokalizacja powstajacych uszkodzen komponentow instalacji technologicznej, urzadzen pomiarowych, wykonawczych i innych zdarzen destrukcyjnych. Powoduja one znaczne i dlugotrwale zaklocenia przebiegu procesu produkcyjnego, zmniejszajacego jego wydajnosc, a czasami prowadza do zatrzymania procesu. Straty ekonomiczne w takich przypadkach sa bardzo duze. Niektore stany awaryjne moga prowadzic do skazenia srodowiska naturalnego lub zniszczenia instalacji produkcyjnej, moga takze zagrazac zyciu ludzi. Komputerowa realizacja dzialan diagnostycznych w trakcie funkcjonowania procesu przynosi istotna poprawe bezpieczenstwa systemu, a takze zwiekszenie efektow ekonomicznych. Jednoczesnie dzieki dokladnej i szybkiej informacji diagnostycznej mozliwe jest dokonywanie w sposob automatyczny odpowiednich zabezpieczen, pozwalajacych na unikniecie lub ograniczenie skutkow uszkodzen, zanim wystapia grozne nastepstwa dla przebiegu procesu technologicznego. Uzyskuje sie dzieki temu efekt tolerowania uszkodzen. Celem pracy jest przedstawienie metod detekcji i lokalizacji uszkodzen obiektow dynamicznych oraz przykladowych zastosowan tych metod. Prezentowane sa algorytmy biezacego diagnozowania przydatne do aplikacji w komputerowych systemach sterowania i nadzorowania procesow przemyslowych, a takze systemy diagnostyczne. Omawiane zagadnienia znajduja sie na pograniczu wielu dziedzin, a szczegolnie automatyki, informatyki i diagnostyki technicznej. W algorytmach diagnostycznych przydatne sa metody modelowania i identyfikacji wypracowane na gruncie automatyki, a takze techniki sztucznej inteligencji: sieci neuronowe, logika rozmyta i przyblizona oraz systemy ekspertowe. Typowymi obiektami diagnozowania sa instalacje w przemysle chemicznym, petrochemicznym, energetycznym, hutniczym, farmaceutycznym, spozywczym, papierniczym i innych. Omawiane metody stosuje sie takze w diagnostyce rakiet, samolotow, sieci gazowych, rurociagow naftowych, pomp, silnikow itp. Prezentowana metodologia detekcji i lokalizacji uszkodzen jest przydatna w diagnostyce roznorodnych procesow: cieplnych, chemicznych, zmiany masy, energii, polozenia itp. oraz roznych rodzajow urzadzen: mechanicznych, elektrycznych, hydraulicznych, pneumatycznych. Ksiazka moze zatem zainteresowac specjalistow z wielu dziedzin techniki. Moze sluzyc takze studentom i doktorantom takich kierunkow, jak: Automatyka i Robotyka, Informatyka oraz Eksploatacja i Budowa Maszyn, na ktorych coraz czesciej wykladane sa zagadnienia diagnostyki i bezpieczenstwa procesow.


    61. Krzysztof Cieslicki, Hydrodynamiczne uwarunkowania krazenia mozgowego. Akademicka Oficyna Wydawnicza EXIT, Warszawa 2001, s. 235, ISBN 83-87674-28-1

      Fragmenty recenzji prof. dr hab. med. J. Przybylskiego: "Mimo iz monografia jest poswiecona krazeniu mozgowemu, to jednak wiekszosc rozwazan odnosi sie do ukladu krazenia jako calosci. Ogniskuja sie w niej zagadnienia z dziedziny fizyki, anatomii i fizjologii, a nawet filozofii. Dzieki olbrzymiej erudycji i niespotykanemu talentowi dydaktycznemu autora mogla sie na lamach monografii dokonac idealna synteza tak wielu dziedzin wiedzy. Czytelnik jest niemal na kazdej stronie zaskakiwany oryginalna teza czy tez spostrzezeniem. Teoretyczne rozwazania zostaja poddane weryfikacji na skonstruowanym w tym celu modelu krazenia mozgowego. W jednym z rozdzialow autor omawia topologie ukladu krazenia. W sposob niezwykle przejrzysty opisuje wlasciwosci i roznice pomiedzy ukladem hierarchicznym i sieciowym. Sugeruje istnienie obszarow naczyniowych o szczegolnej predestynacji do pelnienia funkcji autoregulacyjnych. Doswiadczalna weryfikacja teoretycznych rozwazan moze w duzym stopniu zmienic dotychczasowe koncepcje dotyczace regulacyjnej roli tzw. naczyn oporowych. Przedstawiony przez autora mechanizm powstawania niehomogenicznosci przeplywu w ukladach sieciowych powinien znalezc sie we wszystkich monografiach poswieconych fizjologii i patofizjologii (nadcisnienie tetnicze, cukrzyca) mikrokrazenia. Lektura monografii prof. K. Cieslickiego to nie material do zmudnych studiow, a najprawdziwsza przygoda intelektualna". Monografia jest przeznaczona dla pracownikow nauki zajmujacych sie ukladem krazenia. Moga z niej rowniez korzystac studenci medycyny, biofizyki, inzynierii biomedycznej i lekarze.


    62. Marek Dobosz, Wspomagana komputerowo statystyczna analiza wynikow badan. Akademicka Oficyna Wydawnicza EXIT, Warszawa 2001, s. 452, ISBN 83-87674-29-X

      Celem ksiazki jest w miare mozliwosci calosciowe przedstawienie grupy wzajemnie powiazanych metod statystycznych wykorzystywanych w trakcie prowadzenia badan naukowych. Jest to kompendium najwazniejszych metod statystycznych w ujeciu praktycznych zastosowan. Ksiazka jest adresowana do przedstawicieli roznych dyscyplin nauki i techniki. Odbiorcami ksiazki moga byc studenci wyzszych uczelni, doktoranci, pracownicy naukowi instytutow badawczych i uczelni zarowno technicznych, jak i humanistycznych, pracownicy dzialow marketingu i prognozowania sprzedazy przedsiebiorstw produkcyjnych i handlowych, analitycy instytutow badania opinii publicznej itp. Przyklady ilustracyjne wybrano z dziedzin takich, jak technika, socjologia (badania opinii publicznej, reklamy i konsumenckie) oraz medycyna. Duza grupe przykladow skierowano do wszystkich absolwentow uczelni technicznych. W ksiazce zalozono, ze czytelnik dysponuje odpowiednim oprogramowaniem statystycznym umozliwiajacym prowadzenie obliczen. Jednak w pelni swiadome i prawidlowe korzystanie z metod statystyki matematycznej nawet przy uzyciu powszechnie dostepnych pakietow statystycznych wymaga przekazania pewnych podstaw teoretycznych z dziedziny matematyki. Jezyk matematyki jest w wielu przypadkach najbardziej obrazowy i scisly w opisie i nie daje sie zastapic w calosci forma opisowa stosowana przez wielu autorow. Jednak zakres strony matematycznej w pracy zostal ograniczony przez autora do niezbednego praktycznego minimum. W pracy tej do ilustracji techniki obliczeniowej wykorzystano pakiety statystyczne Statistica oraz Statgraphics.


    63. Ignacy Duleba, Metody i algorytmy planowania ruchu robotow mobilnych i manipulacyjnych. Akademicka Oficyna Wydawnicza EXIT, Warszawa 2001, str. 260, ISBN 83-87674-24-9

      Ksiazka o charakterze monograficzno-podrecznikowym zawiera przeglad najwazniejszych metod planowania ruchu robotow mobilnych i manipulacyjnych. Wstepne rozwazania kinematyczne dotycza wlasciwego doboru reprezentacji przestrzeni zadaniowej robota, unikania osobliwosci reprezentacji oraz algorytmow plynnego przejscia przez osobliwosci. Omawiane sa metody planowania toru i trajektorii manipulatorow dla roznorodnych specyfikacji zadan i modeli opisu obiektow. Dla holonomicznych robotow mobilnych podano wiele metod bazujacych na budowie grafu stanu i efektywnym jego przegladzie. Oprocz metod dobrze ugruntowanych w literaturze robotycznej zamieszczono metody pretendujace do miana klasycznych. Wsrod nich sa przeszukiwanie ewolucyjne i kolonie mrowek bedace medium poszukiwania toru ruchu. Dla planowania ruchu robotow nieholonomicznych wykorzystano metode Newtona wraz z jej efektywnymi energetycznie wariantami i metody korzystajace z narzedzi geometrycznej teorii sterowania. Szczegolny nacisk polozono na efektywnosc poszukiwan, nawet za cene ograniczonego pogorszenia jakosci rozwiazania. Wiekszosc metod przedstawiono na poziomie meta-algorytmow, ktore zaimplementowano i zilustrowano przykladowymi symulacjami komputerowymi. Ksiazka jest przeznaczona glownie dla studentow kierunkow Automatyka i Robotyka politechnik, projektantow robotow autonomicznych, a takze doktorantow i pracownikow naukowych z dyscyplin Automatyka i Robotyka, Informatyka, Matematyka Stosowana. Dzieki zamierzonej autonomii do dziedziny przedmiotowej, niektore z prezentowanych metod moga znalezc zastosowanie takze poza robotyka.


    64. BIOPOMIARY. Redaktorzy: Wladyslaw Torbicz, Leszek Filipczynski, Roman Maniewski, Maciej Nalecz, Edward Stolarski. Tom 2 monografii BIOCYBERNETYKA I INZYNIERIA BIOMEDYCZNA 2000 pod redakcja Macieja Nalecza. Tom wydany przy Wspolpracy Polskiego Towarzystwa Techniki Sensorowej. Akademicka Oficyna Wydawnicza EXIT, Warszawa 2001, s. 1032, ISBN 83-87674-23-0

      Tom BIOPOMIARY, 9-tomowej monografii "Biocybernetyka i In ynieria Biomedyczna 2000", zostal przygotowany przez zespol autorow czynnie uczestniczacych w pracach badawczych. Duzy wklad w jego przygotowanie mialo Polskie Towarzystwo Techniki Sensorowej. W dziele przedstawiono stan swiatowej techniki w zakresie podstaw i zastosowan w medycynie roznych metod, urzadzen i systemow pomiarowych. Podano rowniez przyklady wlasnych prac. Material zgrupowano w szesciu cze ciach. Czesc pierwsza jest poswiecona pomiarom temperatury i wielkosci mechanicznych: cisnienia i przeplywow w roznych obszarach ciala. W czesci drugiej omowiono podstawy i zastosowania medyczne metod ultradzwiekowych i akustycznych. Przedmiotem czesci trzeciej sa pomiary elektrofizjologiczne i niektore aspekty pomiarow biomagnetycznych i bioimpedancyjnych. Metodom i urzadzeniom pomiarowym stezen roznych substancji we krwi, moczu i innych plynach fizjologicznych oraz w gazach oddechowych jest poswiecona czesc czwarta. Czesc piata obejmuje opis metod optoelektronicznych i ich zastosowan w diagnostyce medycznej. Ostatnia, szosta czesc, zawiera omowienie wybranych zagadnien systemowych, odnoszacych sie do globalnej oceny stanu organizmu oraz do zinformatyzowanych urzadzen pomiarowych. Ksiazka moze byc pomocna dla studentow, pracownikow naukowych i praktykow zainteresowanych diagnostyka medyczna.


    65. Michal Lentner, ORACLE. System zarzadzania baza danych. Podrecznik uzytkownika. Akademicka Oficyna Wydawnicza EXIT, Warszawa 2001, str. 316, ISBN 83-87674-22-2

      W ksiazce opisano wybrane aspekty praktyczne dotyczace uzytkowania systemu zarzadzania baza danych Oracle 8.1 w wersji dla systemu Linux. Omowiono szczegolowo zagadnienia istotne dla poczatkujacych uzytkownikow Oracle - poczawszy od instalacji serwera, poprzez metody administracji systemem, a konczac na technikach tworzenia aplikacji baz danych. Zakres zaprezentowanego materialu obejmuje takie zagadnienia, jak: archiwizacja i odtwarzanie baz danych, korzystanie z jezykow SQL, PL/SQL, Java i inne. Poniewaz omawiane tematy najlatwiej jest przedstawic na przykladach, niemal kazde prezentowane zagadnienie jest nimi bogato zilustrowane.


    66. Andrzej Lachwa, Rozmyty swiat zbiorow, liczb, relacji, faktow, regul i decyzji. Akademicka Oficyna Wydawnicza EXIT, Warszawa 2001, str. 283, ISBN 83-87674-21-4

      Ksiazka stanowi wprowadzenie do teorii zbiorow rozmytych i jej zastosowan. Taki tez jest uklad ksiazki: czesc pierwsza obejmuje problematyke zbiorow, liczb i relacji rozmytych, druga zas dotyczy reprezentowania i przetwarzania rozmytej informacji: wnioskowania, sterowania i podejmowania decyzji. Ksiazka jest przeznaczona dla magistrantow i doktorantow informatyki, a takze dla informatykow, ekonomistow i inzynierow zajmujacych sie projektowaniem urzadzen czy systemow, w ktorych maja oni do czynienia z informacja niepewna lub niedokladna.


    67. SIECI NEURONOWE. Redaktorzy Wlodzislaw Duch, Jozef Korbicz, Leszek Rutkowski, Ryszard Tadeusiewicz. Tom 6 monografii BIOCYBERNETYKA I INZYNIERIA BIOMEDYCZNA 2000 pod redakcja Macieja Nalecza. Akademicka Oficyna Wydawnicza EXIT, Warszawa 2000, str. 833, ISBN 83-87674-18-4

      Tom SIECI NEURONOWE, bedacy jednym z 9-tomowej monografii Biocybernetyka i Inzynieria Biomedyczna 2000, zostal przygotowany przez Polskie Towarzystwo Sieci Neuronowych. Celem ksiazki jest zaznajomienie Czytelnika z aktualnym stanem i tendencjami rozwojowymi sieci neuronowych poprzez ukazanie osiagniec naukowych w tym zakresie oraz rozlicznych zastosowan. W monografii przedstawiono podstawowe architektury oraz algorytmy uczenia sieci neuronowych. Podano sposoby ich projektowania oraz optymalizacji. Omowiono rozne zastosowania, m.in. w zagadnieniach aproksymacji, modelowania i identyfikacji, przetwarzania i rozpoznawania obrazow oraz w medycynie i diagnostyce medycznej. Ponadto ksiazka zawiera podstawowy zasob wiedzy o systemach rozmytych, algorytmach genetycznych i ewolucyjnych oraz metodach hybrydowych. Ksiazka moze byc pomocna dla studentow, przedstawicieli nauki i inzynierow w takich dziedzinach, jak: informatyka, biocybernetyka i inzynieria biomedyczna, medycyna, elektronika, automatyka i robotyka, fizyka, ekonomia oraz matematyka stosowana. Material ksiazki zawiera rowniez najnowsze wyniki badan prezentowane podczas konferencji Neural Networks and Their Applications, organizowanych od 1994 roku przez Polskie Towarzystwo Sieci Neuronowych.


    68. Jacek Mandziuk, Sieci neuronowe typu Hopfielda. Teoria i przyklady zastosowan. Akademicka Oficyna Wydawnicza EXIT, Warszawa 2000, str. 262, ISBN 83-87674-17-6

      W ostatnim dziesiecioleciu, dzieki bardzo dynamicznemu rozwojowi, sieci neuronowe przestaly byc dziedzina "elitarna", uprawiana jedynie przez waska grupe badaczy. Liczba publikowanych prac poswieconych tej tematyce corocznie wzrasta. Powstaja nowe periodyki, grupy dyskusyjne. W prowadzonych badaniach widoczne jest wyrazne przesuwanie akcentu z badan podstawowych w kierunku zastosowan. Sieci neuronowe stosowane sa coraz powszechniej do rozwiazywania roznorodnych problemow optymalizacyjnych. Istotna role odgrywaja tutaj sieci Hopfielda oraz ich modyfikacje stanowiace przedmiot niniejszej monografii. Sieci Hopfielda zasadniczo stosowane sa do dwoch rodzajow zagadnien. Po pierwsze, stanowia one uniwersalne narzedzie do rozwiazywania problemow optymalizacyjnych z ograniczeniami rownosciowymi. Ponadto wykorzystywane sa do konstruowania tzw. pamieci skojarzeniowych, w ktorych informacja odtwarzana jest na podstawie postaci sygnalu wejsciowego, a nie za pomoca fizycznego adresu. Zasadniczym celem ksiazki jest krytyczna analiza efektywnosci sieci Hopfielda oraz modeli pochodnych. Opis formalny kazdego z omawianych modeli poprzedzony jest wstepem, w ktorym przedstawiona jest idea lezaca u podstaw jego powstania. Calosc prezentacji dope niaja wybrane przyklady zastosowan. Ksiazka adresowana jest zarowno do specjalistow w dziedzinie sztucznych sieci neuronowych, jak rowniez do informatykow oraz studentow kierunkow scislych zainteresowanych ta tematyka.


    69. Krzysztof Tchon, Alicja Mazur, Ignacy Duleba, Robert Hossa, Robert Muszynski, Manipulatory i roboty mobilne. Modele, planowanie ruchu, sterowanie. Akademicka Oficyna Wydawnicza PLJ, Warszawa 2000, s. 431, ISBN 83-7101-427-9

      Ksiazka zawiera monograficzny wyklad podstaw robotyki obejmujacy kinetyke, dynamike, planowanie ruchu i sterowanie manipulatorow i robotow mobilnych. Szczegolne miejsce zajmuja w ksiazce zagadnienia modelowania kinematyki i dynamiki robotow, osobliwosci kinematyki, algorytmy regularnej i osobliwej kinematyki odwrotnej, algorytmy sterowania manipulatorow sztywnych i elastycznych oraz robotow mobilnych przy ograniczonej znajomosci modelu dynamiki, a takze algorytmy planowania ruchu robotow mobilnych wykorzystujace metody geometrycznej teorii sterowania. W zakresie tych zagadnien wyniki wlasne autorow zostaly przedstawione w kontekscie wynikow udokumentowanych w literaturze przedmiotu. Ksiazka stanowi swiadectwo dorobku szkoly uprawiania robotyki, jaka powstala w Zakladzie Podstaw Cybernetyki i Robotyki Instytutu Cybernetyki Technicznej Politechniki Wroclawskiej. Do jej adresatow naleza studenci kierunku Automatyka i Robotyka politechnik, konstruktorzy robotow i projektanci systemow automatyki i robotyki, inzynierowi, zajmujacy sie automatyzacja i robotyzacja, a takze pracownicy naukowi i doktoranci z dyscyplin Automatyka i Robotyka, Informatyka, Matematyka Stosowana.


    70. Wladyslaw Skarbek, Multimedia - sprzet i oprogramowanie. Akademicka Oficyna Wydawnicza PLJ, Warszawa 1999, s. 515, ISBN 83-7101-425-2

      Ksiazka jest kontynuacja wydanego w 1998 roku tomu "Multimedia - algorytmy i standardy kompresji". Ten tom poswiecono wybranym aspektom systemow multimedialnych. Prezentuje on przeglad standardow sprzetu, komunikacji i oprogramowania w dziedzinie multimediow. Duza czesc materialu ma na celu wprowadzenie czytelnika do programowania multimedialnego w jezyku Java i w systemie VRML. W szczegolnosci na konkretnych przykladach omowiono: zasady budowy sprzegow uzytkownika, obsluge obrazow, system wejscia i wyjscia, aspekty bazodanowe, koncepcje programowania wielowatkowego i sieciowego oraz kolekcje danych.


    71. Ryszard Janikowski, Zarzadzanie ekologiczne. Akademicka Oficyna Wydawnicza PLJ, Warszawa 1999, s. 227, ISBN-83-7101-420-1

      Bezpieczenstwo ekologiczne obecnego i przyszlych pokolen mozliwe bedzie tylko wtedy, gdy wspolodpowiedzialnosc i wspoldzialania wszystkich stana sie rzeczywista podstawa oraz instrumentem zarzadzania ekologicznego. Tylko aktywne, dobrowolne, aczkolwiek ukierunkowane przez zarzadzanie srodowiskowe wspoldzialanie wszystkich czynnikow sprawczych antropopresji gwarantuje sukces. Ksiazka formuluje nowa koncepcje zarz dzania ekologicznego, zarzadzania, ktorego przedmiotem jest cala rzeczywistosc spostrzezeniowa, rozpatrywana jako system. To niewatpliwie stanowi wyzwanie. Autor proponujac systemowe ujecie zagadnienia, uwzglednia wszelkie przejawy presji spo eczno-gospodarczej na srodowisko. Nowatorskie jest wyroznienie trzech roznych aspektow ogladu czynnikow sprawczych antropopresji z perspektywy funkcji, produktu i procesu. Aktywne, wyprzedzajace powstanie negatywnych skutkow - zarzadzanie ekologiczne, z natury rzeczy wymaga odejscia od tradycyjnego ujecia. Opierac sie powinno na nowych regulach i paradygmatach. W ksiazce zaproponowano stosowanie takiego sterowania, ktore powoduje odwrocenie dotychczasowych sposobow dzia ania czynnikow sprawczych. Pozwala nie tylko na programowanie odpowiednich zachowan czy procesow i funkcji podmiotow oddzialujacych na srodowisko, ale nade wszystko na planowanie strukturalne i rozwojowe. Ksiazka przeznaczona jest dla interdyscyplinarnych srodowisk naukowych i eksperckich, a takze dla politykow i pragmatykow zarzadzania.


    72. Adam Janiak, Wybrane problemy i algorytmy szeregowania zadan i rozdzialu zasobow. Akademicka Oficyna Wydawnicza PLJ, Warszawa 1999, s. 407, ISBN 83-7101-415-5

      W ksiazce przedstawiono w syntetycznym i usystematyzowanym ujeciu wybrane problemy i algorytmy wspolczesnej problematyki szeregowania zadan na procesorach (maszynach) oraz rozdzialu roznorodnych zasobow. Problemy te wystepuja zarowno w systemach i sieciach komputerowych, jak i systemach produkcyjnych, a takze w innych dziedzinach. Ksiazka ta dostarcza konkretnych narzedzi w postaci modeli matematycznych i algorytmow rozwiazania realnie istniejacych problemow szeregowania i rozdzialu zasobow w celu ulatwienia optymalnego projektowania i zarzadzania systemami operacyjnymi komputerow, czy tez systemami wspomagajacymi podejmowanie decyzji podczas komputerowo zintegrowanej produkcji przemyslowej. Modele i metody opisane w ksiazce naleza do dziedziny lezacej na styku informatyki i badan operacyjnych i sa praktycznie w calosci dorobkiem wlasnym autora ukazanym na szerokim tle literaturowym. Ksiazka adresowana jest do studentow starszych lat, doktorantow i absolwentow kierunkow i specjalnosci takich jak: inzynieria komputerowa, zastosowania informatyki, organizacja i zarzadzanie produkcji, automatyka i robotyka oraz zastosowania badan operacyjnych.


    73. Andrzej Piegat, Modelowanie i sterowanie rozmyte. Akademicka Oficyna Wydawnicza EXIT, Warszawa 1999, str. 678, ISBN 83-87674-14-1

      W ostatnich 10 latach obserwuje sie prawdziwa eksplozje badan w zakresie metod modelowania rozmytego oraz ich zastosowan do sterowania, diagnostyki, wspomagania podejmowania decyzji, optymalizacji, rozpoznawania wzorow i innych celow. Atrakcyjnosc modelowania rozmytego wynika z jego przystepnosci, prostego aparatu matematycznego oraz z wysokiej efektywnosci uzyskiwanych modeli. Dzieki temu moze byc ono stosowane zarowno do rozwiazywani prostych problemow przemyslowych, jak i najbardziej skomplikowanych problemow naukowych, ktorych metodami dotychczas znanymi nie mozna bylo rozwiazac. Prezentowana ksiazka ma charakter zaawansowanego wprowadzenia w problematyke modelowania rozmytego oraz jednej z jego glownych aplikacji: rozmytego sterowania. Oparta jest na najnowszej wiedzy z tego zakresu, chociaz ze wzgledu na ogromna ilosc pojawiajacych sie publikacji konieczne bylo skoncentrowanie sie na najistotniejszych pozycjach. Mimo ze w tytule znajduje sie slowo sterowanie, ksiazka moze byc z powodzeniem wykorzystywana nie tylko przez specjalistow z tej, lecz takze z kazdej innej dziedziny wymagajacej modelowania obiektow, procesow i systemow, np. ekonomia, medycyna, rolnictwo, meteorologia i inne. Ksiazka ta moze sluzyc rowniez studentom takich kierunkow, jak np. Informatyka, Automatyka, Robotyka, Elektronika, gdzie metody modelowania i sterowania rozmytego sa coraz czesciej wprowadzane jako przedmiot wykladowy.


    74. Adam Mrozek, Leszek Plonka, Analiza danych metoda zbiorow przyblizonych. Zastosowania w ekonomii, medycynie i sterowaniu. Akademicka Oficyna Wydawnicza PLJ, Warszawa 1999, str. 158, ISBN 83-7101-414-7

      Analiza danych stoi u podstaw niemal kazdej swiadomej dzialalnosci czlowieka. W oparciu o wyniki przeprowadzonej analizy moze on poznawac i klasyfikowac otaczajace go zjawiska i procesy oraz podejmowac odpowiednie decyzje. Istnieje wiele matematycznych metod analizy danych, a do najbardziej znanych nalezy niewatpliwie statystyka matematyczna. W ksiazce przedstawiono metode analizy danych oparta na teorii zbiorow przyblizonych. Teoria ta stanowi nowe podejscie do analizy niepewnej i nieostrej informacji, ktorego istota jest charakteryzowanie niepewnosci i nieostrosci pojec nie liczbowo - jak to ma miejsce na przyklad w rachunku prawdopodobienstwa czy teorii zbiorow rozmytych - a poprzez relacje nierozroznialnosci. Umozliwia to, miedzy innymi, scisle operowanie pojeciami nieprecyzyjnymi, znajdowanie zaleznosci miedzy danymi, eliminacje zbednych danych i generowanie z danych regul decyzyjnych. Metoda zbiorow przyblizonych nie jest przy tym alternatywna w stosunku do innych popularnych metod analizy danych, a raczej je uzupelnia i moze byc stosowana w polaczeniu z nimi. Teoria zbiorow przyblizonych doprowadzila do powstania nowych, efektywnych algorytmow analizy danych oraz narzedzi programowych, wspomagajacych te analize. Znalazly one liczne praktyczne zastosowania w ekonomii, finansach, medycynie, farmakologii, technice, psychologii itp. Celem ksiazki jest podanie polskiemu Czytelnikowi podstawowych pojec teorii zbiorow przyblizonych oraz opartej na nich metody analizy danych, wraz z przykladami praktycznych zastosowan. Autorzy maja nadzieje, ze ksiazka bedzie przydatna nie tylko praktykom na co dzien zajmujacym sie analiza danych, ale rowniez wszystkim tym, ktorzy interesuja sie nowymi trendami w zastosowaniach informatyki. Sadzimy, ze moze ona zainteresowac takze pracownikow naukowych oraz studentow wielu kierunkow. Aspekty matematyczne teorii zbiorow przyblizonych zostaly w ksiazce ograniczone do niezbednego minimum. Czytelnik blizej zainteresowany ta teoria znajdzie wiecej informacji na jej temat w zalaczonym spisie literatury.


    75. Ewa Lipowska-Nadolska, Michal Morawski, Tablice systoliczne. Problemy wybrane. Akademicka Oficyna Wydawnicza PLJ, Warszawa 1999, s. 210, ISBN 83-7101-406-6

      Zapotrzebowanie na techniki szybkiego przetwarzania danych, w szczegolnosci przetwarzania sygnalow w czasie rzeczywistym, przyczynilo sie do powstania koncepcji algorytmow czasowo-przestrzennych, jak rowniez nowych rozwiazan sprzetowych. Jedna z metod przetwarzania rownoleglego i strumieniowego sygnalow, wedlug oryginalnej koncepcji uczonych z uniwersytetu Carnegie-Mellon Kunga i Leisersona, sa specjalnego typu uklady liczace. tzw. tablice systoliczne, z ang. systolic arrays, w ktorych czasowo-przestrzenne algorytmy sa scisle dopasowane do architektury sprzetu. Monografia w czesci teoretycznej zawiera wybrane algorytmy i architektury systoliczne oraz realizacje systoliczne takich problemow jak: mnozenie macierzy przez wektor oraz mnozenie macierzy przez macierz z uwzglednieniem transformacji macierzy pelnej na macierz pasmowa, co wiaze sie z dostosowaniem wymiaru problemu obliczeniowego do wielkosci tablicy systolicznej, rozwiazywanie ukladow rownan liniowych, splot jedno- i wielowymiarowy, dyskretna transformata Fouriera, mnozenie wielomianow i wielowarstwowa siec neuronowa. W czesci omawiajacej praktyczna realizacje obliczen monografia zawiera opis oprogramowania i architektury komputera systolicznego Systola 1024 oraz nastepujace problemy obliczeniowe rozwiazane przy jego uzyciu: mnozenie macierzy przez wektor na przykladzie dyskretnej transformaty Fouriera, mnozenie macierzy przez macierz, obliczanie wartosci sredniej i sredniego odchylenia standardowego, filtry liniowe i nieliniowe sygnalow jedno- i dwuwymiarowych (obrazow), konwersje formatow obrazow, odwracanie macierzy, uklady rownan liniowych, splot jedno- i wielowymiarowy. Monografia przeznaczona jest dla studentow, doktorantow oraz specjalistow w zakresie roznych dyscyplin naukowych, np. informatykow i elektronikow, ktorzy zajmuja sie przetwarzaniem sygnalow w czasie rzeczywistym.


    76. Mariusz Nieniewski, Morfologia matematyczna w przetwarzaniu obrazow, Akademicka Oficyna Wydawnicza PLJ, Warszawa 1998, s. 311, ISBN 83-7101-404-X

      Prezentowana ksiazka jest wprowadzeniem do morfologii matematycznej w zastosowaniu do przetwarzania i analizy obrazow. Dziedzina ta burzliwie sie rozwinela w ostatnich latach, co wynika przede wszystkim z rozwoju komputerow, ktore umozliwiaja obecnie wykonywanie wielu obliczen, jakie dawniej nie byly w ogole do pomyslenia. Morfologia matematyczna jest bardzo skutecznym narzedziem przetwarzania obrazow. Umozliwia ona filtracje obrazow, detekcje roznorodnych struktur w obrazie, upraszczanie obrazow bez utraty istotnej informacji, modelowanie obrazow, przetwarzanie wielu obrazow rownoczesnie, a takze rekonstrukcje obrazow. W ksiazce omowiono podstawowe operacje morfologiczne i niektore operacje zlozone. Przedstawiono filtry morfologiczne, ich wlasnosci statystyczne oraz niektore przypadki optymalizacji filtrow. Przedstawiono zasady probkowania i rekonstrukcji obrazow przy zmianach rozdzielczosci obrazu. Omowiono zasady uogolnienia morfologii pojedynczych obrazow na przypadek jednoczesnej analizy wielu obrazow i wykonywania wielu operacji na nich. Przedstawiono operacje geodezyjne, a w tym rekonstrukcje obrazow z zastosowaniem znacznikow. Przedstawiono wprowadzenie do dziedziny stanowiacej polaczenie morfologii z teoria pol losowych Markowa. W obszernym rozdziale dotyczacym zastosowan morfologii podano przyklady z dziedziny wykrywania defektow rdzeni ferrytowych oraz z przetwarzania obrazow medycznych. Oprogramowanie zalaczone na CD ROMie zawiera programy wykonawcze, kody zrodlowe oraz szereg przykladow obliczen wykonanych przez autora. Ksiazka jest przeznaczona dla naukowcow, doktorantow i studentow w takich dziedzinach, jak informatyka, elektronika, biocybernetyka i innych, zajmujacych sie analiza obrazow. Moze tez byc przydatna dla mechanikow, fizykow, chemikow lub inzynierow pragnacych zastosowac metody przetwarzania obrazow dla wlasnych potrzeb.


    77. Ryszard Tadeusiewicz, Elementarne wprowadzenie do techniki sieci neuronowych z przykladowymi programami. Akademicka Oficyna Wydawnicza PLJ, Warszawa 1998, s. 312, ISBN 83-7101-400-7

      Ksiazka przeznaczona jest dla osob, ktore chca bardzo szybko i praktycznie poznac technike sieci neuronowych. Tekst ksiazki, napisany przez najlepszego polskiego specjaliste w tej dziedzinie, koncentruje uwage na maksymalnie przystepnym, pogladowym a jednoczesnie krotkim i zwartym przedstawieniu tylko najwazniejszych i najbardziej uzytecznych wiadomosci, dzieki czemu mozliwe jest bardzo szybkie i glebokie wejscie w temat bez zbednej straty czasu. Najbardziej istotna zaleta ksiazki jest fakt, ze pozwala ona uzyskac wszystkie istotne wiadomosci w sposob praktyczny, poprzez samodzielne eksperymenty na komputerze. Zestaw prostych programow zapisanych na towarzyszacej ksiazce dyskietce pozwala na samodzielne wykonanie szeregu pouczajacych cwiczen i fascynujacych eksperymentow, dzieki ktorym Czytelnik uzyskuje wlasny poglad na temat wlasciwosci sieci neuronowych i na temat ich uzytecznosci. Zalaczone programy moga byc uruchomione na dowolnym dostepnym komputerze, a bedac dostepne w formie kodu zrodlowego - moga posluzyc jako wzorzec przy pisaniu wlasnych programow do rozwiazywania powaznych problemow badawczych lub praktycznych. Ksiazka przeznaczona jest glownie dla studentow wszystkich kierunkow studiow technicznych, ekonomicznych i zwiazanych z biologia, jednak ze wzgledu na brak jakichkolwiek odwolan do wyzszej matematyki moze byc z powodzeniem czytana przez zainteresowanych uczniow szkol srednich. Ze wzgledu na pokazane w ksiazce liczne przyklady i propozycje samodzielnych cwiczen moga z niej tez skorzystac nauczyciele i pracownicy naukowi roznych specjalnosci.


    78. Andrzej Czyzewski, Dzwiek cyfrowy. Wybrane zagadnienia teoretyczne, technologia, zastosowania. Akademicka Oficyna Wydawnicza EXIT, Warszawa 1998, s. 548, ISBN 83-87-674-08-7

      Ksiazka dotyczy zagadnien zwiazanych z pozyskiwaniem sygnalu fonicznego w postaci cyfrowej, jego rejestracja, transmisja, kodowaniem i przetwarzaniem. W pierwszej czesci zebrano niezbedne informacje podstawowe na temat cyfrowych reprezentacji sygnalu fonicznego i operacji dokonywanych w cyfrowym torze fonicznym. Zwrocono przy tym szczegolna uwage na zrodla i przyczyny powstawania znieksztalcen i szumow, wskazujac jednoczesnie na nowoczesne koncepcje zapobiegania tego typu znieksztalceniom lub sposoby ich redukowania. W dalszej czesci przedyskutowano operacje cyfrowe na sygnale fonicznym, takie jak ograniczanie i kompansje, wytwarzanie poglosu, predykcje liniowa, filtracje adaptacyjna i metody rekonstruowania sygnalu fonicznego. Kolejny fragment pracy poswiecono metodom kodowania sygnalu stosowanym w torach fonicznych, tzn. kodowaniu protekcyjnemu, kanalowemu i kodowaniu perceptualnemu, ktore sa podstawa dzialania wspolczesnych urzadzen komputerowej rejestracji i transmisji dzwieku. Jeden z rozdzialow zostal w calosci poswiecony nowatorskim zastosowaniom metod obliczeniowych z dziedziny sztucznej inteligencji do przetwarzania sygnalu fonicznego. Rozwazania przedstawione w tym rozdziale zostaly poprzedzone wprowadzeniem w dziedzine sieci neuronowych, logiki rozmytej i zbiorow przyblizonych. Koncowa czesc pracy zostala poswiecona metodom cyfrowej rejestracji sygnalow oraz sterowaniu urzadzeniami fonicznymi, problematyce automatyzacji stolow rezyserskich, cyfrowemu montazowi nagran i innym zagadnieniom, ktore skladaja sie na wspolczesna technologie nagran. W ostatnim rozdziale omowiono zagadnienia zwiazane z cyfrowa synteza dzwieku. Wiekszosc zagadnien teoretycznych zilustrowano przykladami zastosowan praktycznych, ktore zostaly opracowane w Katedrze Inzynierii Dzwieku Politechniki Gdanskiej, w ramach projektow badawczych. Ksiazka stanowi jedyne, jak do tej pory na polskim rynku wydawniczym, kompendium wiedzy na temat podstaw teoretycznych i zastosowan dzwieku cyfrowego w multimediach, telekomunikacji i w technice studyjnej. Moze byc wykorzystana przez specjalistow, studentow i innych odbiorcow zaznajomionych z podstawami teorii sygnalow, ktorzy pragna poszerzyc swa wiedze na temat istotnego elementu wspolczesnej techniki komputerowej, jakim jest dzwiek cyfrowy.


    79. Konrad Wojciechowski, System z niepewnoscia ograniczona. Model, analiza i modyfikacja. Podejmowanie decyzji i reguly decyzyjne. Akademicka Oficyna Wydawnicza PLJ, Warszawa 1998, s. 287, ISBN 83-7101-396-5

      Ksiazka poswiecona jest problemom podejmowania decyzji i syntezie regul decyzyjnych w systemach z niepewnoscia ograniczona. Obecnie, ze wzgledu na znaczenie zarowno teoretyczne, jak i praktyczne problem podejmowania decyzji jest obszarem aktywnych badan i zastosowan. W ksiazce przedstawiono system z niepewnoscia ograniczona i techniki tworzenia modelu systemu w postaci zbioru okreslonego w przestrzeni decyzji, zmiennych wyjsciowych i obserwacji. Wprowadzono pojecie zbioru zmiennych wyjsciowych i okreslono rozne kryteria pozwalajace na porownywanie takich zbiorow. Przedstawiono przyklady analiz danego zbioru okreslajacego system, w szczegolnosci wyznaczanie ocen warunkowych wybranych zmiennych. Pokazano, ze przy dodatkowym zalozeniu elipsoidalnosci odpowiednich zbiorow, ustalony ciag zrealizowanych decyzji wplywa jedynie na wielkosc odpowiedniego zbioru warunkowanego, natomiast nie zmienia jego ksztaltu. Problemy podejmowania decyzji i syntezy regul decyzyjnych przedstawiono jako zadanie modyfikacji zbioru reprezentujacego model systemu. Wyrozniono podstawowe klasy problemow decyzyjnych oraz syntezy regul decyzyjnych i przedstawiono proponowane techniki i narzedzia ich rozwiazywania. Omowiono dwie koncepcje modyfikacji zbioru reprezentujacego system. Pierwsza polega na jego przecieciu ze zbiorami reprezentujacymi reguly decyzyjne, druga dwustopniowa polega na zamianie decyzji i obserwacji na nowe zmienne, a nastepnie przecieciu zbioru wyrazonego w nowych zmiennych, ze zbiorem reprezentujacym ustalona decyzje. Przedstawione koncepcje modyfikacji zbioru zilustrowano rozwiazanymi wedlug nich problemami. W ksiazce przedstawiono obszerne geometryczne interpretacje podstawowego problemu podejmowania decyzji i syntezy regul decyzyjnych wykonane z wykorzystaniem pakietu "Mathematica". Ilustracje te pozwalaja na dobre zrozumienie prezentowanych w pracy koncepcji, w szczegolnosci dotyczacych problemu syntezy regul decyzyjnych. Przy ich uzyciu wyjasniono wszystkie efekty wystepujace w tym problemie podejmowania decyzji i syntezy regul decyzyjnych. Pokazano, ze interpretacje geometryczne moga byc rowniez podstawa do efektywnej syntezy nieliniowych regul decyzyjnych.


    80. Piotr Adamczewski, Wdrozeniowe uwarunkowania zintegrowanych systemow informatycznych. Akademicka Oficyna Wydawnicza PLJ, Warszawa 1998, s. 234, ISBN 83-7101-393-0

      W ksiazce jest omowiony caloksztalt uwarunkowan organizacyjnych, ktore decyduja o efektywnym przygotowaniu i realizacji zintegrowanego systemu informatycznego (ZSI), stanowiacego najbardziej zaawansowana forme stosowania technologii komputerowej we wspomaganiu zarzadzania w przedsiebiorstwie. Czynniki organizacyjne realizacji ZSI determinuja - obok technicznych i ludzkich - sprawny przebieg prac projektowo-wdrozeniowych i gwarantuja uzyskanie zakladanych efektow calego przedsiewziecia informatycznego. Autor, bazujac na swoich dociekaniach naukowych oraz bogatych doswiadczeniach konsultanta zlozonych przedsiewziec informatycznych, zaproponowal procedury postepowania w zakresie realizacji ZSI. Szczegolnie akcentowany jest etap prac przygotowawczych, obejmujacy restrukturyzacje (BPR) informatyzowanego przedsiebiorstwa oraz struktura i organizacja prac zespolu projektowo-wdrozeniowego. Ksiazka moze byc pomocna wszystkim, od decyzji ktorych zalezy skuteczne podejmowanie trudu wyboru i wdrazania zintegrowanych systemow informatycznych w polskich przedsiebiorstwach, jak rowniez studentom kierunkow informatyki i zarzadzania oraz studiow podyplomowych.


    81. Pawel Zielinski, Systemy informatyczne dla bankowosci w zarysie. Akademicka Oficyna Wydawnicza PLJ, Warszawa 1998, s. 100, ISBN 83-7101-384-1

      Ksiazka niniejsza jest poswiecona szeroko pojetej tematyce informatyzacji dzialalnosci bankowej. Pierwszy rozdzial omawia specyfike rozwiazan informatycznych w bankowosci, konstrukcji systemow bankowych i kryteriow doboru systemu bankowego. Rozdzial ten powstal na podstawie publikacji prasowych w prasie fachowej oraz licznych rozmow z ekspertami w dziedzinie techniki bankowej. Bardziej szczegolowo przykladowe podejscie do projektowania systemu bankowego jest przedstawione w rozdziale drugim. Rozdzial trzeci prezentuje perspektywy rozwoju systemow bankowych. Moze nieco futurystyczne podejscie do tematu sprawia, ze opisy istniejacych rozwiazan sasiaduja ze spekulacjami co do kierunkow rozwoju informatyki bankowej w wieku XXI. Rozdzial czwarty jest oparty na wynikach ankiety, w ktorej banki precyzowaly swoje preferencje co do rozwoju systemow informatycznych. Rozdzial ten przynosi rowniez prognozy trendow na rynku oprogramowania bankowego w Polsce.


    82. Lech Banachowski, Bazy danych. Tworzenie aplikacji. Akademicka Oficyna Wydawnicza PLJ, Warszawa 1998, s. 330, ISBN 83-7101-377-9

      Bazy danych staly sie podstawowym skladnikiem wspolczesnych systemow informatycznych. Umiejetnosc zaprojektowania bazy danych i aplikacji korzystajacych z bazy danych jest jedna z najwazniejszych umiejetnosci wymaganych od informatykow na rynku pracy. Do tej pory brakowalo podrecznika poswieconego temu tematowi. Prezentowana ksiazka jest podrecznikiem baz danych i aplikacji korzystajacych z baz danych. Powstala na podstawie wykladow prowadzonych przez autora w Polsko-Japonskiej Wyzszej Szkole Technik Komputerowych oraz na Zawodowych Studiach Informatycznych Uniwersytetu Warszawskiego. Ksiazka obejmuje nastepujace tematy: standardowy jezyk baz danych SQL, projektowanie baz danych, interfejs uzytkownika i programowanie strony klienckiej, serwer bazy danych i jego programowanie, serwer WWW aplikacji baz danych i jego programowanie, architekture systemu zarzadzania baza danych oraz dostrajanie bazy danych, rozproszone bazy danych, analityczne bazy danych (hurtownie danych), obiektowe rozszerzenia standardu jezyka SQL (SQL3, ODMG 2.0, Oracle8). Material jest przedstawiany na przykladach zaczerpnietych z oprogramowania firm Oracle, Microsoft, Logic Works i SAS Institute. Ksiazka jest przeznaczona zarowno dla studentow, jak i zawodowych informatykow pragnacych poznac temat projektowania i programowania aplikacji baz danych.


    83. Danuta Rutkowska, Inteligentne systemy obliczeniowe. Algorytmy i sieci neuronowe w systemach rozmytych. Akademicka Oficyna Wydawnicza PLJ, Warszawa 1997, s. 304, ISBN 83-7101-288-8

      Prezentowana ksiazka omawia zagadnienie polaczenia metod sieci neuronowych, algorytmow genetycznych i systemow rozmytych w jednym systemie nazwanym inteligentnym systemem obliczeniowym. Inteligentny system obliczeniowy - to inaczej system ekspertowy, w ktorym proces wnioskowania wykorzystuje logike rozmyta, natomiast wiedza jest reprezentowana zarowno w sposob symboliczny (w postaci regul), jak i niesymboliczny - w postaci wag i polaczen sieci neuronowej oraz w postaci chromosomow algorytmu genetycznego. W kontekscie systemow ekspertowych niniejsza monografia dotyczy pozyskiwania i przetwarzania wiedzy. W kolejnych rozdzialach przedstawia sie rozne struktury inteligentnych systemow obliczeniowych. Poszczegolne struktury roznia sie w zaleznosci od zastosowanej metody rozmywania, wnioskowania oraz wyostrzania, a takze postaci regul. Kazdy z tych systemow odpowiada bowiem ogolnemu schematowi ukladu rozmytego, w ktorym wyrozniamy bloki rozmywania, wnioskowania, wyostrzania oraz baze regul. Do uczenia rozpatrywanych w monografii struktur rozmytych systemow wnioskujacych wyprowadzono rekurencyjne procedury, wzorowane na metodzie wstecznej propagacji bledow. Sluza one do znalezienia optymalnych wartosci parametrow funkcji przynaleznosci zbiorow rozmytych, wystepujacych w regulach postaci IF-THEN, jak rowniez wag sieci neuronowych, wchodzacych w sklad danej struktury. Nalezy zaznaczyc, ze kazdy z omawianych systemow wnioskujacych jest skonstruowany w postaci struktury warstwowej, podobnie jak sieci neuronowe. Oprocz metod gradientowych, wynikajacych z wstecznej propagacji bledow, do uczenia omawianych struktur stosowany jest rowniez algorytm genetyczny, a takze proponowane przez autora podejscie hybrydowe, polegajace na polaczeniu algorytmu genetycznego z procedura gradientowa. Warto podkreslic, ze przedstawione w pracy systemy lacza w sobie zalety systemow rozmytych oraz zdolnosci uczenia sieci neuronowych, przy czym w przeciwienstwie do sieci neuronowych wiedza w tych systemach jest "czytelna" dla uzytkownika. Ma to szczegolne znaczenie w systemach ekspertowych, ktore powinny charakteryzowac sie zrozumialoscia dzialania, a tym samym "czytelnoscia" informacji zawartej wewnatrz systemu. Ksiazka adresowana jest do szerokiego kregu odbiorcow: naukowcow, doktorantow, studentow, inzynierow w takich dziedzinach jak informatyka, elektronika, biocybernetyka i inzynieria biomedyczna, automatyka i robotyka, fizyka, matematyka stosowana i ekonomia.


    84. Dariusz Figura, Obiektowe bazy danych. Akademicka Oficyna Wydawnicza PLJ, Warszawa 1996, s. 204, ISBN 83-7101-336-1

      Zadaniem ksiazki jest mozliwie obszerne przedstawienie tematu obiektowosci w kontekscie baz danych. Jako ze samo pojecie, jak i tematyka obiektowych baz danych nie doczekala sie jeszcze tak fundamentalnych prac, jak znany artykul Codda dla baz relacyjnych, w ksiazce starano sie do pewnego stopnia ograniczyc stosowany aparat logiczny, zwlaszcza ze prezentowane rozwiazania czesto albo nie sa oparte na opisie formalnym albo tez odwoluja sie do roznych formalizmow. Naczelnym motywem ksiazki bylo przyblizenie tego wszystkiego, co sklada sie na pojecie obiektowosci i systemow obiektowych. Stad tez przy prezentacji pojecia obiektowosci siegnieto do obiektowych jezykow programowania czy obiektowych metodyk projektowania. Drugim motywem ksiazki sa oczywiscie same bazy danych. Prezentujac rozwiazania stosowane dla baz obiektowych zwykle starano sie wychodzic, o ile to bylo mozliwe, od rozwiazan dla baz relacyjnych jako bardziej znanych. Ksiazka przeznaczona jest dla wszystkich zainteresowanych problematyka baz danych. Wymaga znajomosci podstawowych pojec zwiazanych z ta tematyka, choc tresc ksiazki powinna byc rowniez przystepna dla osob tylko ogolnie orientujacych sie w zagadnieniach zwiazanych z bazami danych.


    85. Ewaryst Rafajlowicz, Wojciech Myszka, LATEX - zaawansowane narzedzia. Akademicka Oficyna Wydawnicza PLJ, Warszawa 1996, s. 256, ISBN 83-7101-333-7

      Ksiazka ta traktuje o narzedziach systemu komputerowego skladu tekstow LATEX. Zawiera informacje o bardziej zaawansowanych komendach oraz o programach towarzyszacych, zestawionych modulowo tak, by ulatwic selektywne korzystanie z udogodnien LATEXa. W szczegolnosci omawiane sa:

      • sposoby wlaczania do tekstow zdjec i grafiki w PostScripcie, w postaci map bitowych (BMP i PCX) oraz fontow,
      • programy do: tworzenia indeksow, baz danych o literaturze naukowej, drukowania i ogladania tekstow na ekranie,
      • AMSLATEX, bedacy rozszerzeniem LATEXa o nowe narzedzia do formatowania wzorow matematycznych.

      Korzystanie z tej ksiazki wymaga posiadania pewnej minimalnej wiedzy o LATEXu. Autorzy maja nadzieje, ze bedzie ona uzyteczna dla studentow i wykladowcow LATEXa, doktorantow i pracownikow naukowych wszystkich tych dyscyplin nauki, w ktorych LATEX juz od dawna jest standardowym narzedziem pracy. Ogolne poznanie struktury LATEXa moze byc pozyteczne takze dla uzytkownikow innych edytorow, takich jak Scientific Word i Scientific Workplace.


    86. Ewaryst Rafajlowicz, Algorytmy planowania eksperymentu z implementacjami w srodowisku Mathematica. Akademicka Oficyna Wydawnicza PLJ, Warszawa 1996, s. 310, ISBN 83-7101-239-9

      W ksiazce przedstawiono algorytmy optymalnego planowania eksperymentu i przetwarzania jego wynikow wraz z implementacjami w jezyku srodowiska Mathematica, wynikami testowania i przykladami zastosowan. Zastosowania technik planowania obejmuja statystyczna optymalizacje produkcji, testowanie prototypow wyrobow i oprogramowania komputerowego. Czesc I zawiera podstawy teoretyczne algorytmow, Czesc II to opis podejscia morfologicznego do problemow wielowymiarowych. W Czesci III opisano zastosowania w diagnostyce graficznej modeli, predykcji cen akcji na gieldzie i rozmieszczaniu czujnikow pomiarowych. Ksiazka adresowana jest do studentow starszych lat, doktorantow i inzynierow roznych specjalnosci, poczawszy od tradycyjnych obszarow zastosowan planowania eksperymentu w technologii chemicznej, materialow budowlanych czy odlewnictwie, az po projektantow ukladow automatyki i specjalistow z zakresu statystycznego sterowania jakoscia produkcji.


    87. Grzegorz Bryll, Metody odrzucania wyrazen. Akademicka Oficyna Wydawnicza PLJ, Warszawa 1996, s. 106, ISBN 83-7101-328-0

      Badania metodologiczne dotyczace nauk dedukcyjnych i nauk empirycznych zdominowane zostaly przez pojecia uznawania, prawdziwosci i twierdzenia. Okazuje sie jednak, ze konieczna jest rowniez analiza tych tresci teorii, ktore badz sa falszywe badz tez z pewnych wzgledow nie moga byc uznane. Dotyczy to nauk empirycznych, sadownictwa, praktyki dochodzeniowej (odrzucanie hipotez), a w pewnym zakresie rowniez nauk dedukcyjnych (badanie niezaleznosci zdan, badanie nietautologii, odrzucanie falszywych sylogizmow itp.). W niniejszej monografii oprocz rozwazan ogolnych dotyczacych odrzucania wyrazen przedstawione zostaly dwie metody ich odrzucania: metoda aksjomatyczna i metoda zalozeniowa, Metody te, ze wzgledu na nieskomplikowany charakter, moga z powodzeniem byc stosowane do wielu zagadnien, w ktorych pojawia sie potrzeba weryfikacji wyrazen, tj. ich asercji lub falsyfikacji. Metoda zalozeniowa odrzucania wyrazen (uogolniona metoda dedukcji naturalnej) nadaje sie do badania wszystkich rachunkow zdaniowych, majacych skonczone matryce adekwatne, a takze do niektorych innych systemow, m.in. do intuicjonistycznego rachunku zdan i wezszego rachunku kwantyfikatorow. Prezentowane metody moga byc wykorzystane nie tylko przez specjalistow, ale takze przez doktorantow i studentow. Monografia zawiera wiele waznych i nowych wynikow, uzyskanych w ostatnich dziesiecioleciach Dominujace sa tutaj wyniki logikow polskich. Autor monografii nalezy do grupy osob, ktore daly podwaliny teorii zdan odrzuconych.


    88. Zygmunt Vetulani, Witold Abramowicz, Grazyna Vetulani, Jezyk i technologia. Akademicka Oficyna Wydawnicza PLJ, Warszawa 1996, s. 217, ISBN 83-7101-364-3

      Ksiazka zawiera materialy z konferencji "Jezyk i Technologia '95" zorganizowanej w kwietniu 1995 r. w Poznaniu z inicjatywy Dyrekcji Generalnej Komisji Europejskiej. Konferencja, w ktorej wzielo udzial ponad 100 uczestnikow z roznych osrodkow badawczych w Polsce, stworzyla okazje do szerokiego przegladu aktualnego stanu badan w zakresie technologii zwiazanych z jezykiem naturalnym. Ze wzgledu na liczny udzial przeglad ten byl w duzym stopniu reprezentatywny, a ksiazka stanowi jego odzwierciedlenie. Czesc przegladowa poprzedzona jest artykulem wstepnym Jaka Rouksena z Komisji Europejskiej odzwierciedlajacym aktualne poglady Komisji w sprawie dalszego rozwoju technologii jezyka. Ksiazka przeznaczona jest dla badaczy zajmujacych sie jezykiem naturalnym i zwiazanymi z nimi technologiami. Bedzie rowniez stanowila "punkt orientacyjny" dla mlodych pracownikow i studentow szukajacych swojego miejsca w tej dyscyplinie.


    89. Lech Polkowski, Marcin Szczuka. Elementy matematyki dla studentow kierunkow informatycznych. Akademicka Oficyna Wydawnicza PLJ, Warszawa 1995, s. 320, ISBN 83-7101-289-6

      Przedstawiamy Panstwu podrecznik, ktory wyrosl z potrzeby dostarczenia studentom Polsko-Japonskiej Wyzszej Szkoly Technik Komputerowych kompendium obejmujacego zarowno: wyklad matematyki w zakresie I roku studiow i przeglad pewnych pakietow systemu Mathematica, umozliwiajacych studentom wizualizacje obiektow matematycznych oraz - w pewnym sensie - eksperymentowanie z nimi. Dla wygody czytelnika nazwy instrukcji systemu Mathematica zostaly wytluszczone w tekscie cwiczen oznaczonych symbolem M. Program wykladu matematyki w PJWSTK jest bardzo zblizony do programu nauczania w zakresie I roku studiow w politechnikach krajowych oraz obejmuje swym zakresem material przedmiotu Calculus 263 A-D w uniwersytetach amerykanskich. Czytelnik znajdzie w podreczniku podstawowe wiadomosci odnoszace sie do systemow liczbowych, kombinatoryki i teorii grafow, algebry liniowej i geometrii, rachunku rozniczkowego i calkowego funkcji jednej i kilku zmiennych rzeczywistych oraz funkcji jednej zmiennej zespolonej, teorii sumowalnosci (szeregow) i teorii topologicznych przestrzeni metrycznych. Podzial podrecznika na czesci I i II odpowiada (za wylaczeniem ewentualnie algebry liczb zespolonych) podzialowi na semestry wydzialowe. Lektura podrecznika przyniesie czytelnikowi kanon wiedzy matematycznej i umozliwi mu korzystanie z opracowan specjalistycznych dotyczacych wielorakich zastosowan matematyki w praktyce informatycznej.


    90. Alicja Wakulicz-Deja, Podstawy systemow wyszukiwania informacji. Analiza metod. Akademicka Oficyna Wydawnicza PLJ, Warszawa 1995, s. 190, ISBN 83-7101-258-6

      W pracy przedstawiono jednolity opis istniejacych i stosowanych metod wyszukiwania informacji. Podstawe opisu stanowi funkcyjny model systemu wyszukiwania informacji. Opierajac sie na tym modelu opisano systemy wyszukiwania informacji z zastosowaniem roznych metod wyszukiwania. Dla kazdej metody dokonano analizy parametrow, jak rowniez omowiono mozliwosci implementacji tej metody. Ponadto podano szereg stosowanych i nowych modyfikacji omawianych metod wyszukiwania. Prezentowane rezultaty sa wynikiem rozwazan teoretycznych i przeprowadzonych eksperymentow praktycznych, zwiazanych z realizacjami systemow wyszukiwania informacji. W pracy rozpatrzono takze problematyke zmiennosci czasowej w systemach wyszukiwania informacji opartych na modelu funkcyjnym. Praca oprocz przedstawienia metod wyszukiwania zawiera analize problemow implementacji tych metod wynikajacych z realizacji programowej systemow informacyjno-wyszukiwawczych. Wobec braku literatury obejmujacej tak szeroka analize ww. problemow publikacja ta jest przydatna zarowno projektantom systemow informatycznych, jak i osobom zajmujacym sie realizacja programow systemow informacyjno-wyszukiwawczych. Ze wzgledu na calosciowe ujecie problemow metod wyszukiwania informacji, ich modyfikacji i problemow zwiazanych z realizacja programowa - publikacja ta moze stanowic rowniez podrecznik dla studentow kierunku Informatyka i Informacja Naukowo-Techniczna.


    91. Zbigniew Suraj, Boguslaw Komarek, GRAF - System graficzny konstrukcji i analizy sieci Petriego. Akademicka Oficyna Wydawnicza PLJ, Warszawa 1994, s. 197, ISBN 83-7101-210-1

      System GRAF jest przeznaczony do wspomagania i analizy modeli systemow wspolbieznych, wykonywanych z uzyciem sieci Petriego. Moze byc rowniez wykorzystywany do wspomagania wykladow i cwiczen laboratoryjnych np. z teorii sieci Petriego, systemow operacyjnych, programowania wspolbieznego. System nadaje sie do stosowania zarowno w formie pokazu, jak i obslugi indywidualnej przez uczacego sie. System moze byc takze uzywany do redagowania grafow, schematow i przygotowywania ich ilustracji na papierze, na potrzeby rozmaitych publikacji. Niniejsze opracowanie stanowi podrecznik uzytkownika systemu GRAF. Jesli system zostanie poprawnie zainstalowany, to ta instrukcja jest wystarczajacym opisem obslugi i wykorzystania systemu GRAF. Podrecznikowi towarzyszy dyskietka z wersja demonstracyjna systemu GRAF oraz przykladami sieci Petriego prezentowanymi w podreczniku i mozliwymi do uruchomienia w tym systemie. Ksiazka przeznaczona jest glownie dla informatykow i matematykow. Moze ona zainteresowac rowniez technikow, inzynierow i statystykow, a nawet przedstawicieli nauk spolecznych interesujacych sie wykorzystaniem komputerow w swojej pracy zawodowej. Z ksiazki tej moga skorzystac rowniez studenci zainteresowani nowoczesnymi systemami obliczeniowymi.


    92. Joanna Chromiec, Edyta Strzemieczna, Sztuczna inteligencja. Metody konstrukcji i analizy systemow eksperckich. Akademicka Oficyna Wydawnicza PLJ, Warszawa 1994, s. 137, ISBN 83-7101-208-X

      Ludzie od wiekow marzyli o stworzeniu myslacej maszyny. Gdy pojawily sie pierwsze komputery, wydawalo sie, ze jestesmy bliscy osiagniecia tego celu. Jednakze proby zbudowania sztucznego mozgu uswiadomily tylko zlozonosc problemu i udowodnily, ze myslaca maszyna pozostanie jeszcze bardzo dlugo tylko marzeniem. Rozwoj sztucznej inteligencji pokazal jednak, ze mozliwe jest zastepowanie pewnych ograniczonych dziedzin dzialalnosci czlowieka przez maszyny. Dala ona poczatek takim kierunkom wspolczesnej nauki jak robotyka czy systemy eksperckie. Ksiazka ta omawia systemy eksperckie, jedna z tych nielicznych galezi sztucznej inteligencji, ktore znalazly zastosowanie w przemysle. Oprocz metod analizy i budowy znajduja sie tu rowniez przyklady realnych zastosowan systemow, ktore nasladuja myslenie czlowieka w danej dziedzinie. Aby przyblizyc czytelnikowi sposoby budowania takich systemow, ksiazka zawiera rowniez opis narzedzia do projektowania systemow eksperckich (KADS) oraz jezyka sluzacego do ich budowy (LEVEL 5 OBJECT). Wszystkich, ktorzy interesuja sie rozwojem sztucznej inteligencji, zachecamy do przeczytania tej ksiazki. Zawiera ona nie tylko teoretyczne podstawy tej dziedziny, ale rowniez sporo praktycznych informacji o dziedzinach, w ktorych mozna stosowac systemy eksperckie i problemach spotykanych podczas ich konstrukcji.


    93. Jozef Korbicz, Andrzej Obuchowicz, Dariusz Ucinski, Sztuczne sieci neuronowe. Podstawy i zastosowania. Akademicka Oficyna Wydawnicza PLJ, Warszawa 1994, s. 251, ISBN 83-7101-197-0

      Prezentowana ksiazka jest wprowadzeniem w problematyke nowoczesnych systemow obliczeniowych, nazywanych sztucznymi sieciami neuronowymi. Dzisiejsze prawie powszechne zainteresowanie sztucznymi sieciami neuronowymi w srodowiskach zarowno neurobiologow, fizykow, matematykow, jak i inzynierow wynika z potrzeby budowania bardziej efektywnych i niezawodnych systemow przetwarzania informacji, wzorujac sie m.in. na metodach jej przetwarzania w komorkach nerwowych. Ksiazka umownie zostala podzielona na dwie czesci. Czesc pierwsza prezentuje obszerne wprowadzenie do teorii sieci neuronowych obejmujace zarowno rozne ich architektury, jak i algorytmy uczenia. Omowiono sieci jednokierunkowe z algorytmem uczenia typu propagacji wstecznej, sieci rekurencyjne oraz inne struktury sieci z uczeniem nienadzorowanym. Oddzielnie analizuje sie problem zastosowania algorytmow genetycznych i symulowanego odprezania w procesie uczenia sieci neuronowych. Czesc druga ksiazki - Zastosowania - rozpoczyna sie od omowienia zastosowania sieci neuronowych typu Hopfielda do rozwiazywania zadan optymalizacyjnych, takich jak problem komiwojazera oraz oprogramowania liniowego. Pokazano szerokie mozliwosci zastosowan sztucznych sieci neuronowych w automatyce, w szczegolnosci do modelowania i identyfikacji obiektow, estymacji stanu (neuronowe filtry Kalmana) oraz budowy neuronowych ukladow sterowania (neuronowe regulatory). Ponadto pokazano przyklad konkretnego zastosowania sieci neuronowych do rozwiazania problemu technicznego detekcji i lokalizacji uszkodzen w elektrowni cieplnej. Ksiazka jest przeznaczona dla informatykow i automatykow zainteresowanych nowoczesnymi systemami obliczeniowymi, jak rowniez dla studentow kierunkow Informatyka, Automatyka i Robotyka oraz Elektronika.


    94. Malgorzata Byrska, Ochrona programu komputerowego w nowym prawie autorskim. Akademicka Oficyna Wydawnicza PLJ, Warszawa 1994, s. 155, ISBN 83-7101-601-8

      Celem niniejszej ksiazki jest zapoznanie czytelnika z aktualnymi problemami ochrony oprogramowania komputerowego w Polsce. Jednakze z uwagi na szeroki przedmiot rozwazan oraz ramy opracowania omowione zostaly te zagadnienia, ktore lacza sie scisle z ochrona programow komputerowych w oparciu o przepisy ostatnio ogloszonej ustawy o prawie autorskim i prawach pokrewnych. Pominiete zostaly takie ustawy jak: ustawa o wynalazczosci, ustawa o zwalczaniu nieuczciwej konkurencji, ustawa o znakach towarowych czy ustawa o ochronie topografii ukladow scalonych - wszystkie one moga rownolegle znalezc zastosowanie w dochodzeniu ochrony przed naruszeniem. Szczegolowy wykaz omowionych zagadnien jest ujety w spisie tresci. Na uwage zasluguja te rozwazania, ktore wskazuja na uprawnienia przyslugujace producentowi oprogramowania, jego tworcy oraz uzytkownikom. Ustawa stara sie godzic sprzeczne interesy tych trzech grup. W jednym z ostatnich rozdzialow ksiazki przedstawiono nowe srodki prawne umozliwiajace skuteczna walke z piractwem komputerowym. Praca nie ma charakteru porownawczego. Powolywanie przepisow, literatury czy orzecznictwa zagranicznego podporzadkowane jest prowadzonej wykladni prawa polskiego. Ksiazka ma sluzyc: pracujacym w przedsiebiorstwach lub innych instytucjach informatykom korzystajacym z komputerow; osobom bez technicznego wyksztalcenia, zwlaszcza prawnikom, stykajacym sie w swej pracy z problemami programow komputerowych, pracownikom organow scigania i wymierzania prawa oraz najszerzej pojetej grupie producentow programow komputerowych oraz ich uzytkownikow. Zamierzenie to wymusilo zamieszczenie podstawowych wyjasnien zarowno z informatyki, jak i z dziedziny prawa. Na koncu ksiazki zamieszczono tekst obowiazujacej ustawy o prawie autorskim i prawach pokrewnych.


    95. Eugeniusz Gatnar, Metody modelowania jakosciowego. Akademicka Oficyna Wydawnicza PLJ, Warszawa 1994, s. 216, ISBN 83-7101-600-X

      Ksiazka omawia najwazniejsze zagadnienia szeroko rozumianego modelowania jakosciowego, ktore sa rozwijane w ramach sztucznej inteligencji, a scisle mowiac - jednego z jej dzialow, zwanego fizyka jakosciowa lub rozumowaniem jakosciowym (czasem tez rozumowaniem potocznym). Prezentowane tutaj metody powstaly w wyniku badan nad sposobami reprezentacji potocznej wiedzy ludzi o dzialaniu prostych mechanizmow i urzadzen, obecnie zas sa wykorzystywane do budowy i symulacji modeli jakosciowych takze w medycynie i ekonomii. Modele tego typu bowiem moga byc stosowane wszedzie tam, gdzie brak pelnych i precyzyjnych danych oraz wiedzy badacza uniemozliwia uzycie klasycznych modeli ilosciowych. Widoczne obecnie duze zainteresowanie modelami jakosciowymi wynika takze z tego, iz sluza one do reprezentacji wiedzy w systemach ekspertowych drugiej generacji, tzw. wiedzy glebokiej (ang. deep knowledge). Niniejsza monografia sklada sie z 10 rozdzialow. Po wstepnym omowieniu zrodel zainteresowania metodami jakosciowymi przedstawiono podstawy rachunku jakosciowego oraz zasady budowy modeli tego typu. Kolejne rozdzialy zostaly poswiecone dokladnej charakterystyce trzech najbardziej znanych metod modelowania jakosciowego: de Kleera i Browna, Forbusa oraz Kuipersa. Ponadto Czytelnik moze znalezc tutaj takze opis metody opartej na wektorach jakosciowych, jakosciowa odmiane analizy wrazliwosci oraz sposoby reprezentacji wiedzy glebokiej. W koncowej czesci znajduja sie przyklady praktycznych zastosowan omawianych metod oraz charakterystyka niektorych z najnowszych osiagniec w tej dziedzinie. Ksiazka adresowana jest do kregu osob zainteresowanych problemami modelowania i symulacji systemow oraz zagadnieniami sztucznej inteligencji. Wypenia ona istotna luke na rynku wydawniczym, gdyz do tej pory brak bylo pozycji (tak w jezyku polskim, jak i angielskim) omawiajacej w sposob kompleksowy metody jakosciowe.


    96. Mieczyslaw Muraszkiewicz, Henryk Rybinski, Bazy danych. Akademicka Oficyna Wydawnicza, Warszawa 1993, s. 168, ISBN 83-85769-05-6

      Nie ma watpliwosci, ze bazy danych sa jedna z najzywiej rozwijanych galezi wspplczesnej informatyki. Rowniez miejsce zajmowane przez nie na polu zastosowan informatyki szybko powieksza sie. Dzis latwiej jest podac liste zagadnien, gdzie nie stosuje sie baz danych niz liste ich zastosowan - po prostu ta pierwsza lista bedzie znacznie krotsza. Autorzy ksiazki dziela sie w niej z czytelnikami ich rozumieniem roznych elementow systemow baz danych. Jest to praca o charakterze monograficznym, adresowana do szerokiego grona osob zainteresowanych projektowaniem i swiadomym uzytkowaniem systemow baz danych. Szczegolny nacisk polozyli na dwie sprawy: (i) na konceptualizowanie i modelowanie swiata rzeczywistego, ktorego warstwe informacyjna chcemy odwzorowac w komputerze, (ii) na srodki i metody manipulowania danymi, a zwlaszcza na wyszukiwanie danych. Ksiazka sklada sie z nastepujacych rozdzialow. Po krotkim Wstepie rozdzial 2 podaje terminy oraz definicje podstawowych pojec uzywanych w pracy. Rozdzial 3 jest obszernym wykladem o Codda relacyjnych bazach danych. Rozdzial 4 dotyczy sieciowych systemow baz danych, takze tych ze wzmocnieniem semantycznym, jak na przyklad Chena model obiekt - relacja. Zaproponowano w nim ogolne widzenie takich systemow przez pryzmat logiki. Wykazano, ze w odniesieniu do systemow sieciowych logiki pierwszego rzedu sa wystarczajacym narzedziem zarowno do budowy schematu danych, jak i do manipulowania danymi. W rozdziale 5 omowiono logiczne (dedukcyjne) bazy danych oparte na logice pierwszego rzedu, z uwzglednieniem Reitera zalozenia o zamknietosci swiata oraz bazy oparte na logikach niemonotonicznych Reitera i MacCarthy'ego. Ksiazke zamykaja podane w rozdziale 6 podsumowanie prac nad bazami danych w ostatnich dwoch dekadach oraz prognoza ich rozwoju w przyszlosci. Ponadto w Dodatku do ksiazki zebrano podstawowe wiadomosci o klasycznej logice pierwszego rzedu. O tym, do kogo adresuja i jaki cel chca osiagnac Autorzy mowia tak: "Zakladamy, ze nasz czytelnik nie stroni od wysilku intelektualnego i samodzielnej refleksji. Oferujemy mu podstawowa wiedze, ktora pozwala lepiej zrozumiec, a zatem i dzialac, w obrebie obecnie stosowanej metodologii i narzedzi zwiazanych z projektowaniem i uzytkowaniem baz danych oraz przyda sie w przyszlosci, wraz z nadejsciem nowych rodzajow baz".


    97. Ryszard Tadeusiewicz, Sieci neuronowe. Akademicka Oficyna Wydawnicza, Warszawa 1993, wyd. 1, s. 299, ISBN 83-85769-03-X oraz wyd. 2 Warszawa 1994 i wyd. 3 Warszawa 1995

      Ksiazka poswiecona jest nowoczesnemu dzialowi informatyki, jakim jest teoria sieci neuronowych. Sieci te maja w stosunku do typowych systemow obliczeniowych dwie zasadnicze zalety. Po pierwsze obliczenia w sieciach neuronowych wykonywane sa rownolegle; tysiace sztucznych neuronow skladajacych sie na siec, wykonuja przypadajace im zadania obliczeniowe rownoczesnie, w zwiazku z czym szybkosc pracy sieci neuronowych moze docelowo miliony razy przewyzszac szybkosc aktualnie eksploatowanych komputerow. Po drugie sieci nie trzeba programowac. Opisane w ksiazce metody uczenia i samouczenia sieci pozwalaja uzyskac ich celowe i skuteczne dzialanie nawet w sytuacji, kiedy tworca sieci nie zna algorytmu, wedlug ktorego mozna rozwiazac postawione zadanie. W ksiazce omowiono wszystkie najwazniejsze osiagniecia w dziedzinie sieci neuronowych uzyskane w okresie kilkudziesieciu lat prac nad te dziedzina. Uwzgledniono zarowno teoretyczne podstawy (zwlaszcza fascynujacego procesu uczenia sieci), ale podano takze konkretne dane (z cenami i adresami producentow) na temat dostepnego sprzetu i oprogramowania dotyczacego sieci, a takze adresy (EMAIL) osrodkow zagranicznych, w ktorych mozna poglebic zdobyte wiadomosci. Ksiazka stanowi przystepne i latwe wprowadzenie dla poczatkujacych, ale zawiera takze informacje bardzo zaawansowane, przeznaczone dla profesjonalistow. I wreszcie obok relacji z badan cudzych (glownie amerykanskich) zawiera wiadomosci o osiagnieciach autora i innych polskich badaczy, niektore po raz pierwszy wlasnie tu publikowane, jest wiec w pelnym tego slowa monografia tematu. Ksiazka otrzymala Nagrode Ministra Edukacji Narodowej.


    98. Andrzej Szalas, Zarys dedukcyjnych metod automatycznego wnioskowania. Akademicka Oficyna Wydawnicza, Warszawa 1992, s. 121, ISBN 83-900451-7-6

      W prezentowanej ksiazce przedstawiono opis wspolczesnych dedukcyjnych metod automatycznego wnioskowania, bazujacych na logice klasycznej i logikach modalnych. Na ogol pozycje poswiecone podobnej tematyce ograniczaja rozwazania do logiki klasycznej. Z drugiej strony, logikom modalnym poswieca sie coraz wiecej uwagi w roznych dzialach sztucznej inteligencji, a zwlaszcza w tych, ktore sa zwiazane z analiza i rozumieniem jezyka naturalnego. Dlatego tez logikom modalnym poswiecono w ksiazce wiele uwagi. W przypadku logiki klasycznej zostaly omowione najpowszechniej stosowane techniki, oparte na zasadzie rezolucji, metodzie tablic analitycznych, metodzie koneksji i wnioskowaniu naturalnym. W przypadku logik modalnych przedstawiono metody sprowadzania wnioskowania do dedukcji w logice klasycznej, przy czym glowny nacisk zostal polozony na te techniki, ktore mozna stosowac w sposob automatyczny. Ksiazka przeznaczona jest zarowno dla czytelnika nie wprowadzonego w problematyke automatycznego wnioskowania, jak i czytelnika blizej znajacego te tematyke. Adresowana jest do szerokiego grona praktykow zajmujacych sie oprogramowaniem, a takze do teoretykow zainteresowanych czysto informatycznymi aspektami logik.



    Edytor serii
    Prof. dr hab. Leonard Bolc
    Instytut Podstaw Informatyki PAN
    Ordona 21
    01-237 Warszawa
    e-mail: bolc@ipipan.waw.pl

    Ostatnia zmiana: 20 maja 2005 roku