Digitalizacja zbiorów w bibliotekach naukowych

dr Marian Butkiewicz

5 maja 2003 r.

 

 Wicedyrektor Biblioteki Uniwersyteckiej KUL

 

 W końcu mijającego stulecia zaczęły urzeczywistniać się najśmielsze prognozy futurologów. Coraz większa liczba informacji tworzy się w środowisku elektronicznym. Internet stał się wszechobecny. Jego rola rośnie coraz bardziej szczególnie teraz, kiedy zadomowił się w naszej świadomości jako narzędzie najszybszego dostarczania najświeższych informacji.

  Biblioteki, określane jako skarbnice wiedzy, nie mogą obejść się bez tych nowinek technologicznych. Komputery w tych instytucjach stanowią integralną część wyposażenia, powoli spychając na margines inne narzędzia dostarczania informacji. Przez ostatnie lata katalog komputerowy coraz bardziej zadomawiał się w informatorium bibliotecznym, aż całkowicie wyparł katalog kartkowy w zakresie nowości. Obecnie niewiele już bibliotek korzysta tylko z tradycyjnych form informacji bibliograficznej, a postępująca retrokonwersja oraz skanowanie kart katalogowych rokuje nadzieje na całkowite wyeliminowanie bloków katalogowych. Jesteśmy już na kolejnym etapie – informacji elektronicznej. Coraz więcej publikacji ukazuje się dwutorowo – w wersji papierowej i zapisie cyfrowym. Nikogo teraz nie dziwi możliwość korzystania z najnowszych publikacji, szczególnie periodyków, serwowanych w bibliotece on-line. Ten proces idzie jeszcze dalej, coraz częściej rezygnuje się już z tradycyjnej formy, udostępniając tekst tylko w zapisie cyfrowym. Jest to wygodniejsze, szybsze i tańsze. Stąd też jesteśmy świadkami powstawania czasopism wirtualnych oraz pierwszych kroków do tworzenia całych bibliotek elektronicznych.

  Szczególnie jest to ważne teraz, kiedy mamy przed sobą przepisy, nakazujące ochronę publikacji jako dziedzictwa narodowego, a także świadomość, że publikacje z ostatnich 150 lat są skazane na bezpowrotną zagładę z powodu destrukcji, powodowanej przez kwaśny papier. Dlatego tak wiele bibliotek i archiwów na całym świecie jest na etapie tworzenia form zastępczych obiektów najcenniejszych lub znajdujących się w złym stanie technicznym. Po XIX-wiecznych faksymiliach był etap popularności mikrofilmów i mikrofisz, a obecnie przyszedł czas na obraz zdigitalizowany. Ten ostatni jest o tyle atrakcyjny, że jest bardzo łatwy w użyciu, a za pomocą internetu może być dostępny we wszystkich zakątkach świata. Z bibliotek, mocno zaawansowanych w tym procesie, należy wymienić biblioteki amerykańskie. Z bliższych nam terytorialnie, godnymi wymienienia są biblioteki narodowe Francji i Hiszpanii, biblioteki skandynawskie a także Państwowa Biblioteka Bawarii w Monachium. Także biblioteki polskie coraz pewniej wkraczają w etap digitalizacji swoich zbiorów. Na razie większość z nich posługuje się aparatami cyfrowymi, robiąc obrazowy zapis tekstu, lecz są już takie, które decydują się na zakup profesjonalnego sprzętu skanującego.

  Rosnące coraz bardziej zainteresowanie digitalizacją zbiorów spowodowało zorganizowanie, po raz pierwszy w Polsce, w marcu 2003 r., przez Wyższą Szkołę Umiejętności Społecznych w Poznaniu kursu dla pracowników bibliotek i archiwów. Na pięciodniowym szkoleniu pojawili się przedstawiciele wielu szanujących się bibliotek akademickich, publicznych i PAN, a także pracownicy Kancelarii Sejmu RP. Niewątpliwie na fakt tak dużego zainteresowania wpłynęła atrakcyjność poruszanych problemów i dobór prelegentów. Program obejmował najbardziej absorbujące tematy: pojęcie, zakres i cele digitalizacji, prawne i praktyczne problemy związane z publikacją dokumentów na innych nośnikach informacji, przebieg procesu skanowania i sprzęt na którym się on odbywa, opracowanie zapisanego tekstu i sposób jego prezentacji, a także aspekty organizacyjno-ekonomiczne przechowywania i udostępniania elektronicznych edycji. Podczas szkolenia, obok teorii, nie zabrakło zajęć laboratoryjnych w pracowni komputerowej, czy własnoręcznej obsługi sprzętu skanującego. Elementami dodatkowymi było zwiedzanie Pracowni Reprografii Biblioteki UAM oraz Poznańskiego Centrum Superkomputerowo-Sieciowego. Całość wieńczyła Wielkopolska Biblioteka Cyfrowa, gdzie jej organizatorzy dzielili się swoimi spostrzeżeniami na temat rozwiązań organizacyjnych, prawnych i technologicznych swoich przedsięwzięć.

  Dobór kadry prowadzącej był pomyślany w taki sposób, że zapraszano fachowców, stykających się z prezentowanymi problemami na co dzień i mających na danym polu spore osiągnięcia. I tak dr A. Jazdon i dr J. Osięgłowski zajęli się wprowadzeniem w sferę wizji biblioteki przyszłości, gdzie ugruntowane miejsce będą miały publikacje w zapisie cyfrowym. Wpływa na to fakt wprowadzania nowych technologii, a także degradacja starego nośnika tekstu jakim jest papier. Szczególnie jest to widoczne w dokumentach z ostatnich 150 lat, czyli od czasu, kiedy to wprowadzono na rynek papier tworzony ze ścieru drzewnego i celulozy w środowisku kwaśnym. W tej sytuacji środki zastępcze są nieodzowne, gdyż proces odkwaszania jest drogi, powolny i zawężony w swoim działaniu, co spowoduje, że publikacje z tego okresu są skazane na nieuchronną zagładę.

  Do tej pory główne wysiłki w celu zachowania tekstów zmierzały w kierunku mikroform. Obecnie digitalizacja wyrabia sobie dogodną pozycję do zwycięstwa ma tym polu. Niewątpliwie atuty, jakie ze sobą niesie, powodują jej powolną supremację. Jednakże nie uda się jej zepchnąć mikrofilmowania na dalszy plan z powodu potrzeby archiwizowania materiałów na nośnikach zastępczych. Według oficjalnych prognoz, mikrofilm odpowiednio przechowywany może przetrwać 400 lat, zaś tekst zapisany na nośnikach elektronicznych trzeba będzie konwertować cyklicznie co najmniej co 10 lat. Obecnie, średnio co 5 lat, jest wprowadzana zmiana standardów zapisu, a co 10 lat zachodzi ewolucja formatów pliku. Zapis cyfrowy jest bardzo wygodny w korzystaniu jak i w szybkim przesyłaniu na duże odległości, dlatego też coraz bardziej lansuje się wprowadzenie systemu hybrydowego – jednoczesnego mikrofilmowania i skanowania. Mikrofilm, ze względu na minimalne koszty przechowywania i jego długowieczność, jest powszechnie polecany do archiwizacji dokumentu, zaś tekst w pliku (po zeskanowaniu i zdefiniowaniu) - do jego ekspozycji.

  Według inż. S. Tobisa, jednego z prelegentów, skanowanie nie jest skomplikowanym procesem. Maszyny, dostępne obecnie na rynku, pozwalają na szybki zapis tekstu i ilustracji od form czarno-białych poprzez wszystkie odcienie szarości aż po reprografie kolorowe. Wszystkie te operacje możemy wykonać począwszy od małych formatów a skończywszy na wielkich, np. A0. Zaprezentowane maszyny (firm Zeutschell i Canon) wykonywały skany szybko i profesjonalnie, nie niszcząc oryginału. Dzięki prostej obsłudze pozwalają one na zatrudnienie do tej czynności osób po kilkugodzinnym przeszkoleniu. Można było obejrzeć bardzo wydajne kamery przelotowe do skanowania pojedynczych kartek (nawet tych, które zapisane są obustronnie), skanery liniowe do mikrofilmów, a także kamery krokowe do druków oprawnych.

 

 Wicedyrektor Biblioteki Uniwersyteckiej KUL

 

  Zdecydowanie większym problemem od procesu skanowania jest zapis obrazu w programie w miarę uniwersalnym, który pozwoliłby na prezentację naszych dokonań w wielu miejscach, dziś i za jakiś czas. Dlatego, mając na rynku dużą gamę oferowanych formatów, poleca się TIFF (Tagged Image File Format), który jest podstawą dla wszystkich innych formatów i pozwala na bezstratną kompresję w CCITT G4. Niewątpliwym problemem jest, jak stwierdził inż. Tobis, oferowana różnorodność programów na rynku, które za kilka czy kilkanaście lat odejdą w niepamięć. Prezentując literaturę światową akcentował, że konwersja plików jest obligatoryjnie zalecana co trzy lata. W naszych warunkach możemy te działania wydłużyć o kolejne dwa lata. Dlatego zapis na nośnikach off-line (np. płytach CD-ROM) jest pozbawiony perspektyw wobec konieczności zapisywania zeskanowanego materiału na coraz to nowocześniejsze nośniki. Jest to największy dylemat tych czasów. Wtórował mu dr R. Prinke, który zajmował się na kursie edytowaniem zeskanowanego materiału. Zapis w systemie cyfrowym jest dopiero pierwszym etapem. Następnym, bardzo ważnym i czasochłonnym, jest dostosowanie go do odczytu komputerowego z zastosowaniem różnego rodzaju wyszukiwarek. Maksyma dr Prinke, że stosowanie niestandardowych form tekstu nie zapewnia jego czytelności i długowieczności, przewijała się przez cały cykl szkolenia. Dlatego tak ważna jest rola norm ISO i języka HTML (XML) jako uniwersalnej formy w szeregu dyscyplin naukowych.

  Mając na uwadze, że w procesie digitalizacji nieodzowna jest duża rezerwa pamięci na dyskach komputerów i potrzebę stałej konwersji, obecnie preferuje się udostępnianie przygotowanych plików w systemie on-line. Powoduje to potrzebę tworzenia bibliotek wirtualnych. Nie jest to novum na rynku światowym. Za tworzeniem tego typu bibliotek idą duże ich zalety – powszechny dostęp do publikacji za pomocą przeglądarek, zarządzanie cyklem życia publikacji czy budowanie struktur semantycznych tekstu, a jednocześnie kontrola dostępu do tych publikacji. W Polsce już funkcjonują dwie tego typu biblioteki – jedna w Krakowie, druga w Poznaniu. W zarządzaniu zawartością takiej biblioteki i kontrolą dostępu pomocny jest program dLibra. Inż. C. Mazurek, nakreślając schemat działania tego programu, pokazał nam podstawowe jego funkcje, zaś prof. M. Górny nakreślił zasady tworzenia (od października 2002 roku) Wielkopolskiej Biblioteki Cyfrowej. Podzielona jest ona na trzy kolekcje: zbiór dydaktyczny - kierowany zasadniczo do środowiska akademickiego, zbiór dziedzictwa narodowego, który jest odzewem na hasło tworzenia Narodowego Zasobu Bibliotecznego, oraz regionalia, czyli ochrona publikacji dotyczących Wielkopolski. Niewątpliwie biblioteka tego rodzaju niesie z sobą wiele wyzwań, wśród których elementy techniczne są tylko mikrokosmosem. Sprawy makrokosmosu to organizacja całego cyklu tworzenia i udostępniania, w którym prawa autorskie mają swój ogromny udział. Sfera prawna przedstawiona przez doc. S. Lewandowskiego zelektryzowała wszystkich, gdyż problem ten jest obecnie wielkim wyzwaniem w zakresie prac porządkujących zagadnienia tantiem. Jak zaprezentowano – na przykładzie poznańskiej WBC – i tutaj wszystko można zapiąć na ostatni guzik.

  Niewątpliwie sporym przeżyciem była wycieczka do Poznańskiego Centrum Superkomputerowo-Sieciowego. Ta kumulacja wielkich serwerów, które pozwalają na obsługę wszystkich uczelni, urzędów i szkół Poznania a także firm komercyjnych, jest widocznym przykładem sprawności organizacyjnej. Funkcjonujące w mieście konsorcja pozwalają na wspólne planowanie różnych przedsięwzięć, oszczędzając czas i pieniądze. Stąd też pojawia się tutaj duża ilość zeskanowanego materiału i jego prezentacja czytelnikom zamiast oryginałów. Mogliśmy to obserwować, wizytując pracownię mikroform Biblioteki UAM. Pomimo znacznych trudności lokalowych, stworzono tam duże laboratorium, sukcesywnie przenosząc na inne nośniki najcenniejsze starodruki, a także kolejne numery czasopism i gazet.

 

dr Marian Butkiewicz

 

  Digitalizacja historycznych dokumentów (pierwotnie rozumiana jako część działań konserwatorskich) na przełomie wieków przerodziła się w narzędzie rozwiązujące problem dostępności. Pojawiły się więc pytania o sposób prezentacji historii w cyfrowym środowisku. Okazało się, że dobre rozwiązania nie będą możliwe bez zmian w sferze metodologii. Prezentacja tego rodzaju musi być rozumiana jako kontekstualizacja dziedzictwa kulturalnego, gdzie górę bierze synchroniczna prezentacja historii nad dotychczas przyjętą wizją diachroniczną (chronologiczną). Najnowsze technologie informatyczne dostarczają do tych zadań coraz nowe narzędzia, a żywiołowy rozwój internetu - nowe możliwości.

 

Autor: Jan Wasilewski
Ostatnia aktualizacja: 14.05.2008, godz. 20:18 - Jan Wasilewski