Stosunkowo niedawno zajęto się badaniem problemu ewentualnych zagrożeń, które są związane z promieniowaniem radiowym o małej intensywności. Badanie dotyczące oddziaływania nietermicznych fal radiowych na organizmy żywe dzieli się na badania epidemiologiczne i laboratoryjne.

W badaniach epidemiologicznych głównym zadaniem jest obserwacja ludzi, którzy są poddani w środowisku naturalnym oddziaływaniu danych czynników zewnętrznych.

Badania laboratoryjne wykonywane są w technice In vitro lub In vivo.

Technika In vitro polega na badaniu na odizolowanych składnikach układów biologicznych. Ta technika umożliwia określenie mechanizmów, dzięki którym zachodzi wzajemne oddziaływanie na poziomie molekularnym czy komórkowym.

Technika In vivo polega na badaniach przeprowadzanych bezpośrednio na zwierzętach laboratoryjnych. Te badania dają możliwość dokładnego skontrolowania parametrów środowiska i intensywności obserwowanych czynników zewnętrznych.

Pierwszym z badań epidemiologicznych dotyczących wpływu pól elektromagnetycznych na ludzi było przebadanie prawie 5000 pracowników ambasady USA oraz ich członków rodzin. Osoby te były narażone na oddziaływanie pola radiowego wytwarzanego przez działające nadajniki w miejscu pracy. Po odbytym badaniu nie stwierdzono negatywnego wpływu pól elektromagnetycznych na osoby biorące udział w tymże badaniu.

Osoby zajmujące się badaniami epidemiologicznymi często ból głowy, luki w pamięci, nudności, zaburzenia snu tłumaczą negatywnym wpływem promieni elektromagnetycznych. Nie ma jednak jednoznacznych badań, które mogłyby tę tezę potwierdzić.

źródło: gsm.edu.pl

Ogromny rozwój sieci telefonii komórkowej przyczynił się do wzrostu zainteresowania opinii publicznej tematem wpływu fal radiowych na zdrowie człowieka. Stosunkowo często można spotkać się z wszelkimi badaniami w tym temacie zarówno w prasie, w Internecie jak i w telewizji. Oszacowanie wpływu fal radiowych na organizm człowieka jest jednak zagadnieniem skomplikowanym.

Fala radiowa jest to szczególny przypadek promieniowania elektromagnetycznego. Pod falą radiową jest również pojęcie fal świetlnych, ultrafioletu, podczerwieni oraz promieniowania jonizującego. Promieniowanie jonizujące ma częstotliwości znacznie wyższe od promieniowania świetlnego co widać na poniższym rysunku.

Oddziaływanie promieniowania elektromagnetycznego na organizm człowieka można podzielić na kategorie zobrazowane na poniższym zdjęciu.

Jednym z największych zagrożeń jakie niesie ze sobą promieniowanie elektromagnetyczne jest jonizacja cząstek wewnątrz komórek organizmu człowieka. Proces jonizacji polega na tym, że wiązania molekularne wewnątrz komórek są rozrywane. Rozerwanie wiązań powoduje powstanie cząstek, które są naładowane zarówno dodatnio jak i ujemnie. Zjawisko to jednak dotyczy tylko i wyłącznie promieniowania bardzo wysokich częstotliwości. Jednym z przykładów promieniowania o bardzo wysokiej częstotliwości jest promieniowanie używane przy wykonywaniu prześwietleń, jest ono znacznie powyżej zakresu światła widzialnego.

Promieniowanie radiowe NIE jest promieniowaniem jonizującym. Promieniowanie to niesie ze sobą energię, która jest setki razy mniejsza niż ta, która byłaby potrzebna do rozerwania wiązań międzycząsteczkowych.

źródło: gsm.edu.pl

Elektroniczny podpis opiera się na stworzeniu procedury, której zadaniem jest przesłanie drogą elektroniczną danych, które umożliwiają identyfikację abonenta A, a jednocześnie uniemożliwiają powtórzenie tej procedury przez osobę B. Osoba B obserwuje w tym wypadku proces identyfikacji abonenta A. Procedura odbywa się również w przypadku gdy w kanale niekodowanym czyli takim, który bezproblemowo może być obserwowany przez inne osoby, trzeba przesłać szyfrujące klucze. Klucze te są dla danego abonenta charakterystyczne i muszą być zabezpieczone przed ewentualnym wykorzystaniem ich w przyszłości przez osobę do tego nieupoważnioną.

Zasada tworzenia elektronicznego podpisu jest na poniższym zdjęciu:

Załóżmy, że dany kanał transmisyjny nie jest chroniony. W tym wypadku inni abonenci mogą obserwować identyfikację abonenta A dzięki działaniu centrum identyfikacji. Klucz który jest podstawą do identyfikacji abonenta A to tzw. Klucz Ka (rys.a). Klucz Ka jest to hasło, które jest ciągiem znaków, co w istocie jest równoważone liczbie. Gdy klucz Ka jest niezakodowany, to podczas przesyłania umożliwiane jest innemu abonentowi skopiowanie tego klucza. Można wtedy użyć ten klucz w innej sytuacji. Użycie tego klucza w innej sytuacji sprawiłoby, że w przyszłości abonent B zostanie uznany jako abonent A, dzięki czemu abonent B będzie miał dostęp do zasobów abonenta A.

Na rysunku (b) przedstawiono sytuację w której centrum identyfikacji przesyła abonentowi A liczbę y. Abonent ten posiadając tajny klucz Ka, generuje liczbę a, która jest elektronicznym podpisem abonenta A odpowiadającym liczbie y. Gdyby abonent B skopiował liczbę a, to nie otrzyma w przyszłości dostępu do zasobów abonenta A. Spowodowane jest to faktem, że podczas następnej procedury identyfikacji, przez centrum identyfikacji zostanie przesłane do abonenta A inna liczba y1. Liczba ta będzie wymagać odesłania do centrum identyfikacji innej liczby a1.

Podsumowując zasada tworzenia elektronicznego podpisu polega głównie na stworzeniu i zdefiniowaniu algorytmu. Algorytm ten ma za zadanie na podstawie liczb y1 i Ka obliczyć liczbę a1, która odpowiada liczbie y1 (rys. c). Aby procedura działała bezawaryjnie, konieczne jest to, aby obserwator B nie był w stanie obliczyć tajnego klucza Ka. (rys.d)

Rozwój technologii pozwolił na rozpowszechnienie się różnego rodzaju standardów GSM, gdzie transmisja danych odbywa się na różnych częstotliwościach. Jednym z najpopularniejszych standardów jest GSM 1800.

Czym jest GSM 1800?

Jest to standard transmisji danych, w którym może się ona odbywać w paśmie częstotliwości 1710-1880 MHz. Używany jest on w większości państw europejskich, azjatyckich, afrykańskich, Australii, a także w niektórych krajach Ameryki Środkowej i Południowej.

Historia powstania GSM 1800?

GSM 1800 powstał w wyniku rozwoju między innymi GSM 900 w roku 1990. Zaczęto wtedy opracowywać technologię DSC1800 przeznaczoną dla gęsto zaludnionych obszarów miejskich. Celem była bezproblemowe prowadzenie licznych rozmów na małym terenie. W roku 1997 nazwa DSC1800 została zmieniona na GSM1800. W 1999 r. na świecie działało ponad 250 sieci telefonicznych które obsługiwały ponad 130 milionów zarejestrowanych abonentów. Działały one w pasmach 900MHz, 1800MHz i 1900MHz. Liczba ta miała się potroić na początku drugiego tysiąclecia.

W latach 90 nastąpił ogromny rozwój technologii. Zgodnie z prawem Moora co osiemnaście miesięcy podwajała się liczba używanych tranzystorów w układach scalonych. Dzięki temu sprzęt komórkowy można było zminiaturyzować. Zobrazowało to kierunek, w którym rozwijała się branża telefoniczna i już było wiadomym, że za kilka lat miał nastąpić kolejny przełom w branży telekomunikacyjnej. Stworzony standard GSM był tak przemyślany aby można było go modyfikować i zwiększać z czasem jego możliwości. Wprowadzenie sieci podzielono na dwa etapy. Pierwszy polegał na wprowadzeniu nowego standardu. Drugim etapem był jego rozwój. Został on poprawiony i wzbogacony o nowoczesne rozwiązania poprawiające komunikację. Dwukrotnie poprawiono efektywność wykorzystywania pasam radiowego.

W drugiej połowie lat dziewięćdziesiątych zespoły ESTI zostały zaangażowane w tworzenie nowego standardu. Nazwano go: Faza druga + GSM. Nie został on nazwany fazą trzecią, gdyż chciano podkreślić stopniowe zmiany i modyfikacje, a nie ogromny przeskok w sposobie rozmów, który miał nastąpić kilka lat później.

Jak to wygląda od strony technicznej?

W tym standardzie przesyłanie danych odbywa się na aż 374 częstotliwościach, które są rozłożone co 200 kHz. Maksymalny zasięg komórki, jaki można osiągnąć, to 8 kilometrów. Jest to idealne rozwiązanie do tworzenia sieci na bardziej zaludnionych obszarach o dużym natężeniu ruchu telekomunikacyjnego.

Wiele sieci wykorzystuje kilka standardów. Przykładowo w Polsce GSM 1800 i 900 wykorzystuje się jednocześnie, przy zapewnieniu braku utraty połączenia. Łączenie standardów jest dobrym rozwiązaniem aby obsługiwać połączenia na większych obszarach. Łączenie standardów działa na zasadzie sieci szkieletowej.

Dzięki współpracy wielu firm telekomunikacyjnych i używaniu tych samych standardów możliwa jest swobodna rozmowa praktycznie z każdego zakątka świata. Mimo rozwoju innych rozwiązań dla połączeń komórkowych, standardy GSM nadal mają się bardzo dobrze.

Propagacja, czyli rozchodzenie się sygnału w kanale radiowym to zjawisko uzależnione od wielu czynników. Zależy ona przede wszystkim od właściwości samej fali, czyli jej długości oraz polaryzacji, a także od warunków środowiska, w którym rozchodzi się fala. Przez warunki środowiska rozumie się ukształtowanie terenu i rodzaj jego pokrycia – fale radiowe inaczej rozchodzą się na terenach pokrytych wodą, w lesie, w terenach zabudowanych, czy na otwartych przestrzeniach. Natężenie pola elektromagnetycznego maleje wraz ze wzrostem odległości pomiędzy stacją bazową a telefonem.

Bardzo upraszczając sytuację w kanałach rzeczywistych moc sygnału to 1/d^a, gdzie:
„d” – odległość pomiędzy antenami
„a” – współczynnik tłumienia fali, ma wartości z przedziału 1,5 – 6. Standardowa wartość współczynnika w komórkach podmiejskich wynosi 3. W centrach miast często a=5, w mieszkaniach 6, ale np. na przecięciu dwóch anten nadających sygnał 1,5. Im większa jest wartość tego współczynnika, tym sygnał szybciej się gubi, wraz ze wzrostem odległości.

Zjawiskiem kształtującym sygnał w kanale radiowym jest transmisja wielodrogowa. Oznacza to że sygnał docierający do aparatu telefonicznego jest łączony z wielu różnych źródeł. Jest to spowodowane różnymi zakłóceniami i sygnał z jednego źródła zgubiłby się w aglomeracji bloków.

Tłumienie sygnałów w sygnałach rzeczywistych jest o wiele większe w niż tłumienie w wolnej przestrzeni. Sytuacja jest spowodowana różnymi zjawiskami ubocznymi m.in. zaniki propagacji wielodrogowej, efekt Dopplera, zakłócenia telekomunikacyjne.

W środowisku rzeczywistym moc sygnału jest zmienna – na przemian maleje i rośnie. „Efekt cienia radiowego” to wolnozmienne zaniki mocy sygnału radiowego. Typowymi zjawiskami propagacyjnymi są transmisja wielodrogowa i uginanie się fal na przeszkodach. Do anteny w odbiorniku dochodzą promienie które przebyły różne drogi, mają różną amplitudę i fazę. Jeśli dwie różne składowe dochodzące do odbiornika mają ten sam znak – sygnały się wzmacniają i dają dobrą jakość. W przeciwnym wypadku dochodzi do wytłumienia sygnału.

Rozchodzenie się fal w otoczeniu Zemii

W otoczeniu naszej planety fale mogą rozchodzić się jako fala przyziemna, troposferyczna bądź jonosferyczna. Fala przyziemna, jak sama nazwa wskazuje, rozchodzi się wzdłuż powierzchni i jest wykorzystywana do transmisji fal na odległościach do 2000 km. Z kolei fala troposferyczna ulega załamaniu w troposferze, a następnie trafia do odbiornika. Należy podkreślić, że propagacja fal radiowych w troposferze w dużej mierze uzależniona jest od aktualnych warunków meteorologicznych. Natomiast fala jonosferyczna odbijana jest od naładowanej elektrycznie jonosfery. Odbicia fal od tej warstwy zależą w dużym stopniu od aktywności Słońca.

Systemy telefonii komórkowej zaczęły być używane w latach 80. Wcześniej do komunikacji były używane tzw. systemy dyspozytorskie. Były to systemy w których komunikowano się za pomocą radiotelefonów. Firmy wykupywały pasmo o odpowiedniej częstotliwości i miały na nie wyłączność. Poważną wadą tych systemów był fakt, że wszyscy użytkownicy słyszeli się nawzajem. Rozwiązania to jest używane do dziś np. w firmach taksówkarskich.

Już w latach 40. powstała koncepcja sieci telefonicznej, jednak na jej powstanie trzeba było czekać 40 lat ze względu na możliwości techniczne. W 1976 roku w Nowym Jorku, działał jeden system, który pozwalał na 12 rozmów w tym samym czasie. Było w nim zarejestrowanych 500 użytkowników. Skandynawia jako pierwsza wprowadziła standard telefonii komórkowych. Było to na początku lat 80. Działał on wtedy w technologi analogowej.

zabytkowy telefon komórkowy

W latach 80 systemy telefoniczne zaczęły się przeciążać i trzeba było zaprojektować coś nowego. Systemy telefonii komórkowej stały się bardzo popularne i stare rozwiązania technologiczne nie wystarczały. Firmy zrozumiały jak wielki jest potencjał w połączeniach internetowych i postanowiły rozwijać się w tym kierunku. Przygotowywanie standardu GSM rozpoczął się jeszcze w latach 80. W 1982 powstała grupa o nazwie Groupe Speciale Mobile, która miała opracować odpowiedni standard telefoniczny dla całej Europy Zachodniej. Na pierwszym spotkaniu grupy znaleźli się przedstawiciele 11 krajów.

Już w latach 80 istniejące systemy telefoniczne zaczęły się przeciążać. Konieczne było zaprojektowanie nowego rozwiązania. W tym czasie też firmy zrozumiały jak duży potencjał ma w sobie technologia internetowa i zaczęły się rozwijać w tym kierunku. W latach 80. rozpoczęło się tworzenie technologii GSM. W 1982 powstała grupa o nazwie Groupe Speciale Mobile, której zadaniem było opracowanie standardu telefonicznego dla całej Europy Zachodniej. Na pierwszym spotkaniu uczestniczyli przedstawiciele 11 krajów.

Przygotowania

Gdy okazało się że limit miejsc w sieci analogowej się wyczerpuje prace nabrały rozmachu. Sprawa ta była brana bardzo poważnie przez Państwa europejskie i były prowadzone nad nią debaty podczas spotkań Wspólnoty Europejskiej. W wyniku tych spotkań zostało zarezerwowane pasmo 900Mhz na którym prowadzono ogólnoeuropejską komunikację radiową. Celem było stworzenie całkowicie cyfrowego systemu komunikacji który nie tylko rozwinie starą koncepcję ale również wzbogaci ją o istotne elementy których w wersji analogowej brakowało jak np. zabezpieczenia. Do budowy pierwszych urządzeń zastosowano układy scalone, które pozwalały na zminiaturyzowanie sprzętu.

Jesienią 1987 r. powołano organizację GSM z siedzibą w Dublinie w Irlandii, której celem było skupianie operatorów przyszłych systemów telefonii komórkowej. Nazywała się GSM Memorandum of Understanding, w skrócie GSM MoU. W 1988 roku rozpoczęto testy dotyczące transmisji sygnałów na kanale radiowym. Powołano do życia ETSI – Europejski Instytut Standardów Telekomunikacyjnych, która pracowała nad tworzeniem standardów, a sam zespół GSM stał się częścią ETSI. GSM otrzymało nowe znaczenie Global System form Mobile communications (globalny system łączności bezprzewodowej). Po raz pierwszy system został zaprezentowany na targach TELECOM’91 w Genewie.

GSM - global system for mobile communiations

Sukces systemu stał się oczywisty, zanim sieć zaczęła tak naprawdę działać. Było to być ogromne osiągnięcie technologiczne, zmieniające sposób komunikowania się całej ludzkości. W ciągu pierwszych trzech lat, liczba abonentów wzrosła o 300%. Wtedy już rozpoczęto pracę nad nowym standardem, który miał jeszcze bardziej rozwinąć technologię rozmów.