niedziela, 27 maja 2012

Kupić sprężarkę i co dalej?

Krótki poradnik dla tych, co po raz pierwszy mają swoją własną sprężarkę. Jak dobrać akcesoria i wyposażenie? Jest to bardzo istotne żeby długo cieszyć się nowym sprzętem i właściwie go wykorzystać.
Wydawać by się mogło, że jak kupimy sprężarkę, małą dużą nie ma znaczenia i postawimy sobie ją w garażu to będzie nam służyła przez wiele sezonów i lat. Nie ma nic bardziej mylnego, sprężarka tłokowa zależnie od modelu ( sprężarka niskoobrotowa i wysokoobrotowa) wymaga różnych zabiegów i tzw. dodatków, żeby właściciel mógł się cieszyć nią przez cały rok. Pierwsza sprawa to olej do sprężarek, niewielu sprzedawców informuje swych klientów o konieczności wymiany oleju w sezonie zimowym. Pod warunkiem, że zamierzamy z niej korzystać w zimie i że sprężarka stoi w nieogrzewanym pomieszczeniu, ( bo jak w ogrzewanym to problemu nie ma). W zimie letni olej staje się zbyt lepki i nie jest w stanie zapewnić dostatecznego smarowania, efekt może być taki, że sprężarka ( przy dużych mrozach) będzie wybijać korki, lub po prostu szybciej zużyją się pierścienie. Dlatego w sezonie zimowym zaleca się wymienić olej na rzadszy, może być syntetyczny lub półsyntetyczny.

Kolejna sprawa przy sprężarkach to, jakość powietrza. Ogólnie wiadomo, choć nie każdy o tym myśli, że sprężarki nie dają super czystego powietrza. W powietrzu znajdują się krople wody i oleju, te nowe sprężarki biorą mniej oleju, ale z czasem i one zaczynają coraz więcej pluć olejem. Konieczne jest, więc zastosowanie filtra lub bloku przygotowania powietrza. Filtr ma za zadanie wychwycić drobiny zanieczyszczeń, wody i oleju ( tzw. kondensatu). Bardzo częstym błędem popełnianym przez użytkowników sprężarek jest umieszczanie takiego filtra zaraz przy wylocie z sprężarki. Filtry powinno się umieszczać nieco dalej żeby kondensat mógł sie wstępnie wytrącić. A i ważna sprawa to przepustowość filtra i maksymalne dopuszczalne ciśnienie, pamiętajmy o tym. Ważną sprawą są węże techniczne, a właściwie ich przekrój, który determinuje przepustowość. Mówiąc prościej, jeżeli potrzebujemy powietrze do nadmuchania koła, albo do przedmuchania, to wystarczy przekrój 6mm., Jeżeli w grę wchodzi klucz 1/2 cala, pistolet do malowania, to można pomyśleć o przekroju 10mm. Najwięcej powietrza potrzeba do pistoletów do piaskowania i dużych kluczy pneumatycznych 1 cal, w takim wypadku przewód musi mieć 16 mm.
Kolejna sprawa to naolejacze, potrzebne do przygotowania powietrza do narzędzi pneumatycznych typu klucze udarowe, szlifierki i wiertarki, czyli wszystkie obrotowe. I tu podobna zasada, zwracać uwagę na przepustowość i ciśnienie dopuszczalne. Olej do narzędzi pneumatycznych powinien być bezkwasowy czysty bez zanieczyszczeń. To juz prawie wszystko, dodać można jeszcze to żeby, co jakiś czas spuszczać kondensat z zbiornika. Zazwyczaj każda firmowa sprężarka ma taki kurek od spodu, który wystarczy odkręcić jak jest napełniony zbiornik i spuścić trochę kondensatu. Jeżeli podczas odkręcania zaworka będzie syczeć powietrze, a nie będzie wylatywał kondensat nic nie szkodzi to dobrze.

piątek, 25 maja 2012

Pierwszy na świecie telefon w technologii 802.11n

Ascom wprowadził na rynek nowej generacji VoWi-Fi bez­przewodowy telefon Ascom i62. Rozwiązanie Ascom oznacza niezależność od producenta sieci WLAN, łatwe wdrożenie i skalowalność, jak również zdolność do integracji i komunikowania się z szeroką gamą zewnętrznych źródeł informacji.
Ascom i62Ascom wprowadził na rynek nowej generacji VoWi-Fi bez­przewodowy telefon Ascom i62. Ma on elegancki design, wysokiej rozdzielczości kolorowy wyświetlacz TFT, wysoki stopień ochrony przed wodą i zanieczyszczeniami (IP-44), dłuższy czas pracy baterii oraz wiele innych ulepszeń. Po­dobnie jak pozostałe telefony bezprzewodowe Ascom, i62 ma funkcję zdalnego programowania (OTA) i został prze­testowany do współpracy z różnymi sieciami Wi-Fi. Urządzenie zapewnia bezprzewodowy system transmisji głosu i wiadomości, ma wbudowane alarmy osobiste. Tele­fon pozwala na korzystanie z aplikacji lokalizujących poło­żenie użytkownika oraz na przesyłanie wiadomości, nie­zwykle przydatne zarówno w sytuacjach krytycznych, jak i codziennej pracy.
Ascom i62 to dobre rozwiązanie dla użytkowników dzięki interaktywnemu messagingowi Ascom, który integruje media stacjonarne, bezprzewodowe i mobilne, w tym alarmy i wiadomości, jak również bezprzewodowe systemy komunikacyjne, z publicznymi technologiami komunikacji, taki­mi jak GSM, e mail i internet. Ascom i62 zapewnia kom­patybilność z największymi dostawcami WLAN i dostosowuje swoje funkcje do wymagań. Niezależnie od tego, czy telefon podłączony jest do tradycyjnej centrali telefonicz­nej, czy nowoczesnego IP-PBX, czy przekazuje informacje z systemu przywoławczego, czy też z systemu monitorowania pacjenta, Ascom zapewnia optymalną integrację tych wszystkich systemów.

środa, 16 maja 2012

Nawigacja - podstawowe informacje i metody

Sprawna nawigacja w terenie, to umiejętność nie do przecenienia. Jedną z gorszych rzeczy, które mogą Ci się przytrafić, to znaleźć się w nieznanym miejscu i mieć trudności w odnalezieniu drogi. 
Dla wprawnych podróżników nie stanowi to większego problemu. Szczegółowe mapy oraz kompas, to dla nich wystarczające narzędzia do nawigacji. Co jednak zrobić w sytuacji, kiedy za bardzo nie potrafimy wyczytać nic wartościowego z map, nie mówiąc już o wykorzystaniu razem z nimi map? Kilkanaście lat temu nie było żadnej alternatywy dla tradycyjnych przyrządów nawigacyjnych. Dziś już jest. I co ważne korzystanie z nich nie wymaga żadnej specjalistycznej wiedzy. W dzisiejszych czasach nawigację umożliwiają nam systemy pozycjonowania satelitarnego.
Celo użyłem liczby mnogiej pisząc o systemach pozycjonowania satelitarnego, bowiem mamy ich kilka. Z którego skorzystać. Obecnie tak naprawdę nie mamy jakiegoś dużego wyboru, mimo że systemów tego typu jest kilka. Tak naprawdę w nawigacji liczy się tylko jeden system, jest nim GPS. Jego największą zaletą jest zasięg. Obecnie ta amerykańska nawigacja pokrywa swoim zasięgiem niemal całą kulę ziemską. Wiele wskazuje na to, że w najbliższym czasie dużą konkurencją dla GPS będzie rosyjska nawigacja GLONASS. System ten już obecnie pokrywa obszar całej Rosji oraz krajów ościennych, a trzeba wspomnieć, że ten system ciągle jest rozwijany i ostatecznie ma pokryć swoim zasięgiem całą Ziemię. Bardzo dobrze zapowiada się, przynajmniej zapowiadał, europejski system Galileo. Jednak cięcia budżetowe spowodowały, że zakończenie prac nad nawigacją Galileo opóźniły się.
Pewnie zastanawiasz się co musisz zrobić, aby wyznaczać pozycję z nawigacją satelitarną. Systemy te są całkowicie darmowe. Nie musisz uiścić żadnych opłat, aby korzystać z tego typu systemów. Jedyne co będzie Ci potrzebne, to niewielki odbiornik radiowy – oczywiście dostosowany do odbioru fal radiowych zgodnych z częstotliwością emitowaną przez satelity nawigacyjne. Odbiorniki te nie są relatywnie drogie. Podstawowe urządzenie tego typu to wydatek rzędu kilkuset złotych. Musimy oczywiście doliczyć do tego koszty oprogramowania z mapami cyfrowymi. Jednak i w tym przypadku koszty te nie będą duże. Poza tym na rynku istnieje również wiele map darmowych. Parametry takich map odbiegają jednak od tych map płatnych.
Być może zastanawiasz się gdzie możesz taką nawigację wykorzystać. Prawda jest tak, że właściwie to trudno jest wymienić wszystkie obszary, w których wykorzystujemy systemy pozycjonowania satelitarnego. Te najbardziej powszechne to chociażby turystyka piesza. W tego typu zastosowaniach systemy pozycjonowania sprawdzają się wręcz fenomenalnie. Wystarczy, że spojrzymy na wyświetlacz naszej nawigacji i już wiemy gdzie aktualnie się znajdujemy. Ponadto bardzo powszechnym zastosowaniem tego typu systemów jest transport drogowy. Tutaj bardzo dobrze sprawdzają się systemy zarządzania flotą. Wiele innych specjalistycznych wykorzystań tego typu systemów to: geodezja, geologia, lotnictwo, wojsko oraz archeologia.

Cięcie wodą - obrabianie materiału

Waterjet czyli możliwość przecinania różnych materiałów z wykorzystaniem wody pod wysokim ciśnieniem podawanej wraz z materiałem ciernym.
Cięcie wodą  Jest to nowoczesna technologia cięcia oferująca:
- duży zakres grubości ciętych materiałów – do 200 mm
- duża powierzchnia obrabianego materiału – do 1500 x 3000 mm,
- wysoką tolerancję wymiarową – do 0,1 mm
- zachowanie gładkich krawędzi,
- eliminację wgięć i załamań charakterystyczną dla innych technologii cięcia,
- bardzo dużą dokładność dopasowania materiałów obrabianych.
- bardzo szybką obróbkę ciętego materiału

Obrabiane materiały
Technologia cięcia wodą daje możliwość obróbki praktycznie każdego materiału o grubości do 200 mm. Poza elementami z różnego rodzaju metali obrabiać można również materiały budowlane, a w szczególności wykonywanie dekorów z kamienia, czy płytek ceramicznych lub gresowych. Możliwość cięcia różnego rodzaju tworzyw sztucznych, gumy, szkła, sklejki i innych materiałów dekoracyjnych zaspokoi z pewnością potrzeby firm wykonujących reklamy lub dekoracje.
Technologia ta charakteryzuje się brakiem obciążeń: termicznych, mechanicznych i chemicznych obrabianego materiału, jest przyjazna środowisku naturalnemu. Cięcie wodą to doskonałe rozwiązanie do obróbki materiałów trudno obrabialnych,  produkcji jednostkowej lub krótkoseryjnej, wykonywania insert.
Przygotowanie produkcji
Obróbki materiałów można dokonać na podstawie  rysunków w formacie dwg lub dfx, a także innych formatów  pozwalających na zwymiarowanie

poniedziałek, 14 maja 2012

Na co zwracać uwagę wybierając antenę DVB-T?

Informacje dotyczace wprowadzanej na bieżąco nowej technologii telewizji. Wyjaśnienie, na jakie parametry należy zwracać uwagę przy kupnie anteny, aby odebrać jak najlepszy sygnał.
Zdecydowana większość naszych rodaków zgadza się z tym, że warto wymienić wykorzystywaną do tej pory antenę na taką, która pozwala na odbiór sygnału DVB-T nawet, jeśli nie jest to konieczne, bo odbiór telewizji analogowej był znośny. Jeszcze przed złożeniem wizyty w sklepie z antenami warto zastanowić się nad tym, która antena DVB-T dostępna na polskim rynku, najpełniej zrealizuje nasze potrzeby. Jak bowiem łatwo jest się domyślić, istnieje przynajmniej kilka kryteriów przesądzających o jej przyszłej skuteczności.
Odpowiedź na pytanie o to, czy kupić antenę pokojową, czy zewnętrzną, nie wydaje się przesadnie skomplikowane. Okazuje się bowiem, że nawet najwyższej klasy antena pokojowa nie spełni swojego zadania tak dobrze, jak antena zewnętrzna. Dzieje się tak przede wszystkim z uwagi na to, że fale UHF wcale nie przenikają przez ściany bez strat na swojej jakości. Zakup anteny pokojowej powinien być więc postrzegany przede wszystkim, jako rozwiązanie tymczasowe. Nawet wówczas warto przyjrzeć się krytycznie zarówno swojemu mieszkaniu (antena pokojowa faworyzuje mieszkańców wysokich bloków) oraz odległości od nadajnika, w jakiej się ono znajduje (im bliżej, tym lepiej).
Instalacja anteny zewnętrznej zawsze jest bardziej opłacalna. W tym momencie warto jednak wziąć pod uwagę to, w jakim miejscu się ona pojawi. Znawcy tematu zwracają uwagę na to, że nawet najwyższej klasy antena DVB-T nie zda się na wiele, jeżeli trafi do piwnicy albo na strych w domu, w których dach pokryty jest blachą. Im wyżej zainstalujemy więc antenę, tym lepiej. W przypadku domostw położonych w dużej odległości od nadajnika, spore znaczenie ma i to, że w przypadku anten do odbioru telewizji cyfrowej nie powinniśmy stosować wzmacniaczy. W tego rodzaju przypadku warto skonsultować się ze specjalistą, który doradzi nam najbardziej efektywne rozwiązanie.
Odległość naszego domu od nadajnika ma wyjątkowo duże znaczenie. Wskazane jest jednak również zwrócenie uwagi na to, czy nie istnieją dodatkowe przeszkody, które mogą utrudniać nam odbiór programów telewizyjnych dostarczanych drogą cyfrową. Często jest to obecność fabryki albo osiedla wysokich bloków. Warto liczyć się więc z tym, że obiekty tego typu mogą utrudniać nam wybór anteny. Spore znaczenie ma również to, jaką moc ma pobliski nadajnik. Informacje na ten temat można zdobyć między innymi w Internecie.

Czym różnią się frezy?

Frezy czołowe dzielą się na kilka grup. Grupy te charakteryzują się różnymi kształtami, rozmarami i przeznaczeniem. Rodzajów frezów jest wiele. Wbrew pozorom to rozbudowany dział techniki. Warto znać podstawowe zasady podziału, dobrze jest też orientować się, co do czego można użyć.
Pierwszą kategorią rozróżnienia frezów czołowych może być ich kształt. W chwili obecnej frezy to ogromne zróżnicowanie kształtów, a więc i przeznaczenia. W zależności od potrzeb używane są różne formy, co pozwala na osiągnięcie rozmaitych efektów.
 Frezy różnicują się również ze względu na głębokość i ułożenie rowków lub zębów. Rowki mogą mieć postać spiralną, o dużej głębokości i wić się wzdłuż bolca. Z kolei zęby znaleźć można na frezach okrągłych, przypominających tarcze stosowane w piłach. I tak jak w przypadku pił, także i tarcze używane do frezowania tną materiał, kruszą go i wyrywają jego elementy. Frezy mogą mieć od jednego do czterech zębów na rowek. W większości przypadków im więcej zębów ma frez tym gwałtowniej będzie rozrywał materiał. Innymi słowy, frez dwuzębny może pracować dwa razy wolniej niż taki, który ma cztery zęby.
 Kolejnym elementem, który może służyć do rozróżnienia jest kąt pod jakim nachylona jest spirala. O co chodzi? Rowki na frezach bardzo często nachylone są pod pewnym kątem. Jest to podyktowane tym, że w przypadku braku nachylenia, cały ząb uderzałby w materiał za jednym razem powiększając wibracje i zmniejszając dokładność cięcia. Ułożenie rowków pod kątem pozwala zębom na wgryzanie się w powierzchnię stopniowo. Co za tym idzie, redukowane są wibracje. Zwykle frezy używane do wykończeń posiadają większe nachylenie, co zapewnia więszą dokładność.
 Niektóre z frezów mogą służyć do przewiercania się przez gruby materiał. Inne nie mogą tego robić. W związku z tym pojawia się kolejne pole rozróżnienia. Inne są w stanie wwiercać się pod określonym kątem, na przykład czterdziestu pięciu stopni.

Różne rodzaje frezów pozwalają na wycinanie różnych kawałków materiału. Mogą też zostawiać odcięty brzeg w postaci wygładzonej lub nierównej, szorstkiej i surowej. Frezy zostawiające szorstkie brzegi mogą mieć żłobkowane zęby, które kruszą materiał na małe kawałki. Te, które zostawiają brzeg gładki mają wiele zębów, dzięki czemu tną w sposób delikatny.

sobota, 12 maja 2012

Żarówka,elektryczne źródło światła

Żarówka – elektryczne źródło światła, w którym ciałem świecącym jest włókno wykonane z trudno topliwego materiału (pierwotnie grafit, obecnie wolfram). Drut wolframowy jest umieszczony w bańce szklanej wypełnionej mieszaniną gazów szlachetnych (np. argon z 10-procentową domieszką azotu).
Żarówka – elektryczne źródło światła, w którym ciałem świecącym jest włókno wykonane z trudno topliwego materiału (pierwotnie grafit, obecnie wolfram). Drut wolframowy jest umieszczony w bańce szklanej wypełnionej mieszaniną gazów szlachetnych (np. argon z 10-procentową domieszką azotu). Włókno osiąga temperaturę ok.2500-3000 K na skutek przepływu prądu elektrycznego. Wynalazek powstał w połowie XIX w. Światło uzyskiwane z żarówek jest światłem zbliżonym do słonecznego i cechuje się dobrym wskaźnikiem oddawania barw oglądanych w tym świetle przedmiotów, świeci cały czas jednakowo, nie powodując efektu stroboskopowego. Widmo światła emitowanego przez żarówkę jest ciągłe, o niższej temperaturze barwowej (bardziej żółte) niż słoneczne. Temperatura barwowa światła emitowanego przez żarówkę wynosi ok. 2700 K. Wadą żarówek jest ich mała skuteczność świetlna, wynosząca zazwyczaj około 12 (od 8 do 16) lumenów/wat (niektóre mają sprawność poniżej 6 lumenów/wat), a także niska trwałość. Żarówka wykorzystuje ok. 5% energii na światło widzialne, a reszta energii jest tracona w emisji ciepła. 1 września 2009 w Unii Europejskiej rozpoczął się proces stopniowego (do 2012 roku) wycofywania żarówek z użycia i zastąpienia ich lampami fluorescencyjnymi i żarówkami diodowymi. Informacje o parametrach żarówki zawiera etykieta energetyczna umieszczona na opakowaniu. Skuteczność świetlna żarówki zależy od temperatury żarnika. W miarę zwiększania temperatury żarnika szybko zwiększa się prędkość parowania wolframu, wskutek czego następuje tworzenie się przewężeń drutu wolframowego, zwiększone nagrzewanie się drutu w tym miejscu i w końcu przepalanie się żarnika. Wolfram odparowany z żarnika osadza się na bańce w postaci ciemnego nalotu, który pochłania część światła emitowanego przez żarnik. Z tych względów w żarówkach próżniowych (w bańce panuje próżnia) temperatura żarnika nie przekracza 2600 K. Skuteczność świetlna lampy żarowej zależy od kilku czynników: materiału z którego wykonane jest włókno żarowe, sposobu wykonania włókna, zawartości bańki, napięcia zasilającego oraz ostatecznie mocy. Większość z tych parametrów w nowoczesnych żarówkach jest niezmienna. Włókno żarowe wykonane jest z wolframu jako podwójna skrętka, bańka wypełniona jest gazem obojętnym a napięcie zasilające w Polsce to 230 V. Zmienia się jedynie moc lampy. Im większa jest moc żarówki, tym mniejsze straty energii i w konsekwencji większa sprawność. Poniższe tabele przedstawiają skuteczność świetlną dla większości typowych mocy żarówek głównego szeregu.
Skuteczność świetlna żarówek zwykłych
Moc lampy
[W]

Strumień
[lm]

Skuteczność
[lm/W]

15
90
6,0
25
220
8,8
30
315
9,7
40
420
10,5
60
710
11,8
75
940
12,5
100
1360
13,6
150
2160
14,4
200
3040
15,2
300
4850
16,2
500
8300
16,6
Pierwsze próby o minimalnej trwałości:
1838 – włókno węglowe żarzące się w próżni (Jobard)
1840 – drut platynowy żarzący się w próżni (Robert Grover)
1854 – pierwsze praktyczne wykorzystanie żarówki z włóknem ze zwęglonego bambusa do reklamy (Heinrich Göbel)
1860 – brytyjski patent na świecące włókno węglowe w bańce, z której wypompowano powietrze (Joseph Wilson Swan)
1878 – pierwsza nadająca się do praktycznego wykorzystania żarówka, patent brytyjski (Joseph Wilson Swan)
1878 – masowa produkcja żarówek w USA (Hiram Stevens Maxim utworzył United States Electric Lighting Company)
1879 – patent USA (Thomas Alva Edison)
1883 – po raz pierwszy na Mazowszu zastosowano oświetlenie elektryczne miało to miejsce w Markach w przędzalni spółki "Briggs & Posselt"
1890 – wolframowy żarnik (Aleksander Łodygin)
1 września 2009 – od tego dnia zgodnie z Rozporządzeniem Komisji (WE) nr 244/2009 obowiązującym w Unii Europejskiej żarówki 100 watowe zostają przekwalifikowane na "lampy do celów specjalnych" a na ich opakowaniach ma się pojawić wyraźny i dobrze widoczny napis, że "lampa nie nadaje się do oświetlenia pomieszczeń domowych"
Ze względu na niską sprawność żarówki coraz częściej zastępowane są lampami wyładowczymi. Ostatnio stosowane są świetlówki kompaktowe zintegrowane, które są niewielkie, mają elektroniczny układ zapłonowo-stabilizacyjny znajdujący się w korpusie. Lampy te mogą być podłączane bez dodatkowych układów w miejsce standardowych żarówek.


Do innych zamienników tradycyjnych żarówek można również zaliczyć lampy LED wykorzystujące diody wysokiej jasności. Ze względu na to że przy wyższych mocach takich modułów sprawność świetlna nie rośnie (niezależnie od mocy takiej lampy sprawność "LEDów" się nie zmienia) oraz ze względu na wysokie ceny są one najczęściej stosowane dekoracyjnie. Obecnie na rynku pojawiają się także diody stosowane jako zamienniki dla żarówek tradycyjnych, co wynika z faktu, m.in.: wycofywania w wielu krajach żarówek energochłonnych, dużej trwałości sięgającej nawet 100 tysięcy godzin pracy, wysokiej sprawności świetlnej, rozwoju technologii wytwarzania LED oraz rosnącej skali ich produkcji, powodującej dynamiczny spadek cen.
Lampa LED − źródło światła oparte o diody elektroluminescencyjne, umieszczone w obudowie pozwalającej zastosować je w oprawie oświetleniowej przeznaczonej dla żarówek.


Proste konstrukcje, służące głównie jako kontrolki przeznaczone do zastępowania miniaturowych żaróweczek w tablicach synoptycznych lub samochodowych tablicach rozdzielczych, zawierają tylko diodę świecącą w dowolnym kolorze oraz opornik, pracują przy napięciach 6-24 V.


Lampy diodowe, służące do oświetlania, posiadają cokół, np. E14 lub E27, który pozwala umieścić je w oprawie dla żarówek 230 V, ale też znormalizowane przyłącza bagnetowe albo igiełkowe. Niskie napięcie konieczne do zasilania diod świecących: białych lub "ciepło białych" (Warm White), jest w nich wytwarzane za pomocą przetwornicy impulsowej.


Pewną popularnością cieszy się pomysł zastąpienia żaróweczki w miniaturowej latarce białą diodą świecącą. Biała dioda, aby emitować światło, potrzebuje napięcia około 4 V. Aby zasilać ją ze standardowego ogniwa 1,5 V, należy zbudować miniaturową przetwornicę impulsową. Układ można zmontować tak, że mieści się całkowicie w cokole zwykłej żarówki, co pozwala zastosować lampę diodową bez żadnych zmian w konstrukcji latarki.


Do podstawowych zalet lamp diodowych, w porównaniu z lampami żarowymi, należy znacznie większa trwałość, szerszy zakres napięć roboczych, większa sprawność, znacznie mniejsze nagrzewanie, brak zależności temperatury barwowej światła od napięcia zasilającego, a w przypadku kontrolek, dodatkowo możliwość uzyskania dowolnego koloru świecenia bez użycia barwnych filtrów.


Do wad należą: wysoka cena (rekompensowana przez dużo dłuższą żywotność), ograniczony kąt świecenia oraz niekompatybilność z tradycyjnymi ściemniaczami dla żarówek.
Żarówka – elektryczne źródło światła, w którym ciałem świecącym jest włókno wykonane z trudno topliwego materiału (pierwotnie grafit, obecnie wolfram). Drut wolframowy jest umieszczony w bańce szklanej wypełnionej mieszaniną gazów

Żarówka – elektryczne źródło światła, w którym ciałem świecącym jest włókno wykonane z trudno topliwego materiału (pierwotnie grafit, obecnie wolfram). Drut wolframowy jest umieszczony w bańce szklanej wypełnionej mieszaniną gazów szlachetnych (np. argon z 10-procentową domieszką azotu). Włókno osiąga temperaturę ok.2500-3000 K na skutek przepływu prądu elektrycznego. Wynalazek powstał w połowie XIX w. Światło uzyskiwane z żarówek jest światłem zbliżonym do słonecznego i cechuje się dobrym wskaźnikiem oddawania barw oglądanych w tym świetle przedmiotów, świeci cały czas jednakowo, nie powodując efektu stroboskopowego. Widmo światła emitowanego przez żarówkę jest ciągłe, o niższej temperaturze barwowej (bardziej żółte) niż słoneczne. Temperatura barwowa światła emitowanego przez żarówkę wynosi ok. 2700 K. Wadą żarówek jest ich mała skuteczność świetlna, wynosząca zazwyczaj około 12 (od 8 do 16) lumenów/wat (niektóre mają sprawność poniżej 6 lumenów/wat), a także niska trwałość. Żarówka wykorzystuje ok. 5% energii na światło widzialne, a reszta energii jest tracona w emisji ciepła. 1 września 2009 w Unii Europejskiej rozpoczął się proces stopniowego (do 2012 roku) wycofywania żarówek z użycia i zastąpienia ich lampami fluorescencyjnymi i żarówkami diodowymi. Informacje o parametrach żarówki zawiera etykieta energetyczna umieszczona na opakowaniu. Skuteczność świetlna żarówki zależy od temperatury żarnika. W miarę zwiększania temperatury żarnika szybko zwiększa się prędkość parowania wolframu, wskutek czego następuje tworzenie się przewężeń drutu wolframowego, zwiększone nagrzewanie się drutu w tym miejscu i w końcu przepalanie się żarnika. Wolfram odparowany z żarnika osadza się na bańce w postaci ciemnego nalotu, który pochłania część światła emitowanego przez żarnik. Z tych względów w żarówkach próżniowych (w bańce panuje próżnia) temperatura żarnika nie przekracza 2600 K. Skuteczność świetlna lampy żarowej zależy od kilku czynników: materiału z którego wykonane jest włókno żarowe, sposobu wykonania włókna, zawartości bańki, napięcia zasilającego oraz ostatecznie mocy. Większość z tych parametrów w nowoczesnych żarówkach jest niezmienna. Włókno żarowe wykonane jest z wolframu jako podwójna skrętka, bańka wypełniona jest gazem obojętnym a napięcie zasilające w Polsce to 230 V. Zmienia się jedynie moc lampy. Im większa jest moc żarówki, tym mniejsze straty energii i w konsekwencji większa sprawność. Poniższe tabele przedstawiają skuteczność świetlną dla większości typowych mocy żarówek głównego szeregu.
Skuteczność świetlna żarówek zwykłych
Moc lampy
[W]

Strumień
[lm]

Skuteczność
[lm/W]

15
90
6,0
25
220
8,8
30
315
9,7
40
420
10,5
60
710
11,8
75
940
12,5
100
1360
13,6
150
2160
14,4
200
3040
15,2
300
4850
16,2
500
8300
16,6
Pierwsze próby o minimalnej trwałości:
1838 – włókno węglowe żarzące się w próżni (Jobard)
1840 – drut platynowy żarzący się w próżni (Robert Grover)
1854 – pierwsze praktyczne wykorzystanie żarówki z włóknem ze zwęglonego bambusa do reklamy (Heinrich Göbel)
1860 – brytyjski patent na świecące włókno węglowe w bańce, z której wypompowano powietrze (Joseph Wilson Swan)
1878 – pierwsza nadająca się do praktycznego wykorzystania żarówka, patent brytyjski (Joseph Wilson Swan)
1878 – masowa produkcja żarówek w USA (Hiram Stevens Maxim utworzył United States Electric Lighting Company)
1879 – patent USA (Thomas Alva Edison)
1883 – po raz pierwszy na Mazowszu zastosowano oświetlenie elektryczne miało to miejsce w Markach w przędzalni spółki "Briggs & Posselt"
1890 – wolframowy żarnik (Aleksander Łodygin)
1 września 2009 – od tego dnia zgodnie z Rozporządzeniem Komisji (WE) nr 244/2009 obowiązującym w Unii Europejskiej żarówki 100 watowe zostają przekwalifikowane na "lampy do celów specjalnych" a na ich opakowaniach ma się pojawić wyraźny i dobrze widoczny napis, że "lampa nie nadaje się do oświetlenia pomieszczeń domowych"
Ze względu na niską sprawność żarówki coraz częściej zastępowane są lampami wyładowczymi. Ostatnio stosowane są świetlówki kompaktowe zintegrowane, które są niewielkie, mają elektroniczny układ zapłonowo-stabilizacyjny znajdujący się w korpusie. Lampy te mogą być podłączane bez dodatkowych układów w miejsce standardowych żarówek.


Do innych zamienników tradycyjnych żarówek można również zaliczyć lampy LED wykorzystujące diody wysokiej jasności. Ze względu na to że przy wyższych mocach takich modułów sprawność świetlna nie rośnie (niezależnie od mocy takiej lampy sprawność "LEDów" się nie zmienia) oraz ze względu na wysokie ceny są one najczęściej stosowane dekoracyjnie. Obecnie na rynku pojawiają się także diody stosowane jako zamienniki dla żarówek tradycyjnych, co wynika z faktu, m.in.: wycofywania w wielu krajach żarówek energochłonnych, dużej trwałości sięgającej nawet 100 tysięcy godzin pracy, wysokiej sprawności świetlnej, rozwoju technologii wytwarzania LED oraz rosnącej skali ich produkcji, powodującej dynamiczny spadek cen.
Lampa LED − źródło światła oparte o diody elektroluminescencyjne, umieszczone w obudowie pozwalającej zastosować je w oprawie oświetleniowej przeznaczonej dla żarówek.


Proste konstrukcje, służące głównie jako kontrolki przeznaczone do zastępowania miniaturowych żaróweczek w tablicach synoptycznych lub samochodowych tablicach rozdzielczych, zawierają tylko diodę świecącą w dowolnym kolorze oraz opornik, pracują przy napięciach 6-24 V.


Lampy diodowe, służące do oświetlania, posiadają cokół, np. E14 lub E27, który pozwala umieścić je w oprawie dla żarówek 230 V, ale też znormalizowane przyłącza bagnetowe albo igiełkowe. Niskie napięcie konieczne do zasilania diod świecących: białych lub "ciepło białych" (Warm White), jest w nich wytwarzane za pomocą przetwornicy impulsowej.


Pewną popularnością cieszy się pomysł zastąpienia żaróweczki w miniaturowej latarce białą diodą świecącą. Biała dioda, aby emitować światło, potrzebuje napięcia około 4 V. Aby zasilać ją ze standardowego ogniwa 1,5 V, należy zbudować miniaturową przetwornicę impulsową. Układ można zmontować tak, że mieści się całkowicie w cokole zwykłej żarówki, co pozwala zastosować lampę diodową bez żadnych zmian w konstrukcji latarki.


Do podstawowych zalet lamp diodowych, w porównaniu z lampami żarowymi, należy znacznie większa trwałość, szerszy zakres napięć roboczych, większa sprawność, znacznie mniejsze nagrzewanie, brak zależności temperatury barwowej światła od napięcia zasilającego, a w przypadku kontrolek, dodatkowo możliwość uzyskania dowolnego koloru świecenia bez użycia barwnych filtrów.


Do wad należą: wysoka cena (rekompensowana przez dużo dłuższą żywotność), ograniczony kąt świecenia oraz niekompatybilność z tradycyjnymi ściemniaczami dla żarówek.
Żarówka – elektryczne źródło światła, w którym ciałem świecącym jest włókno wykonane z trudno topliwego materiału (pierwotnie grafit, obecnie wolfram). Drut wolframowy jest umieszczony w bańce szklanej wypełnionej mieszaniną gazów

wtorek, 8 maja 2012

Wybieramy ekrany projekcyjne

Jak wybierać ekrany projekcyjne? Na co zwrócić szczególną uwagę? I czy zawsze opłaca się wydawać tysiące złotych na najnowsze cuda techniki?
ekran projekcyjnyZałóżmy, że decyzja zapadła. Mamy projektor, teraz potrzebujemy ekranu, na którym będziemy wyświetlać prezentacje, slajdy, zdjęcia i filmy.
Zanim zaczniemy chodzić po sklepach lub przeglądać oferty handlarzy internetowych, przeprowadźmy prosty rachunek sumienia i zastanówmy się, do czego będziemy takiego projektowa używać i jakie powinien spełniać cechy. Odpowiedzmy sobie na pytanie, czy potrzebny jest nam projektor przenośny czy ścienno-sufitowy? Jeśli chcemy się z nim przemieszać lub nie bardzo możemy pozwolić sobie na umieszczenie czegoś na ścianie, powinniśmy wybrać ten pierwszy rodzaj projektorów. W przeciwnym razie możemy sięgnąć po ścienno-sufitowy. Zastanówmy się też, czy zależy nam na elektrycznym sterowaniu projektorem. To dość drogi bajer, niekoniecznie potrzebny w codziennym użytkowaniu. Ale jeśli chcemy robić wrażenie, możemy wydać trochę więcej.
Bardzo ważne jest znalezienie odpowiedzi na pytanie o cel używania projektora. Czy będzie ekranem do kina domowego czy raczej będą na nim prowadzone prezentacje? To ważne, bo zastosowanie warunkuje format ekranu.
Mogłoby się wydawać, że coraz większa popularność nowoczesnych ekranów panoramicznych oraz laptopów powinna przekładać się także na kształt ekranu projekcyjnego. Jest jednak inaczej. Jeśli chodzi o ekrany przeznaczone do prezentacji lepiej postawić na standard 4:3. Dlaczego? Bo mimo wszystko wciąż jeszcze dominuje sprzęt pracujący na takich proporcjach. Także większość oprogramowania lepiej sprawdza się właśnie na takich ekranach.
Przeznaczenie projektowa warunkuje miejscem, w którym będzie używany. Jeśli będzie to pomieszczenie ciemne, można wybierać ekrany projekcyjne o powierzchni białej i matowej. Jednak w przypadku jasnych pomieszczeń lepiej zdecydować się na te o powierzchni odbijającej światło.
Warto zastanowić się nad tym, jaka będzie dla nas najlepsza wielkość ekranu. W tym przypadku ważne jest, żeby obraz był czytelny. Jeśli planujemy używać naszego ekranu w małej grupie, jego rozmiar nie musi być duży. Jednak ekrany projekcyjne stosowane w salach o dużym audytorium powinny mieć przekątną powyżej 50 cali. Warto zastosować przy tym dość znaną zasadę: ostatni rząd oglądających nie powinien znajdować się dalej niż pięć długości przekątnej ekranu.
Dodatkowym elementem, nad którym warto się zastanowić są specjalne napinacze ekranów rozwijanych. Dzięki nim powierzchnia jest zawsze płaska i naciągnięta. Można je dodać do każdego rodzaju ekranu i w ten sposób podnieść jakość projekcji. W przeciwieństwie do niepotrzebnych bajerów taki wydatek może się opłacić.
Ostatnią kwestią, ale niekoniecznie najmniej ważną, jest wielkość budżetu, jaki możemy przeznaczyć na zakup ekranu. Jeśli mamy niewiele pieniędzy, wybierajmy ekrany projekcyjne bez zbędnych bajerów, za to wysokiej jakości. Jeśli mamy ich całą masę, możemy poszaleć.

poniedziałek, 7 maja 2012

System kontroli dostępu w hotelach

Wymogi bezpieczeństwa w branży hotelarskiej skupiają się na trzech aspektach: nadzór (monitoring), kontrola dostępu oraz systemy alarmowe.
Kontrola dostępu w hotelach jest systemem najbardziej inteligentnym, który zastąpił tradycyjne zamki i klucze w obiektach. W obecnym czasie każdy hotel wysokiej klasy posiada system kontroli dostępu, który nie kończy się na otwieraniu i zamykaniu drzwi do pokoju gościa.

System kontroli dostępu wyposażony jest w inne dodatkowe funkcje, które:
- otwierają/zamykają drzwi do pozostałych pomieszczeń: korytarzy, sal konferencyjnych, części rekreacyjnej, itp.
- otwierają/zamykają drzwi do szaf i sejfów meblowych,
- udzielają dostępu do garażu podziemnego lub windy,
- redukują koszty energii elektrycznej poprzez np.: wyłączaniu wszystkich obwodów elektrycznych w czasie nieobecności gościa w pokoju,
- kontrolują czas pracy pracowników,
- kontrolują wejścia/wyjścia gościa z pokoju.


Dzięki możliwości łatwego i elastycznego wyznaczania uprawnień dostępu możemy podzielić dostęp wewnętrzny (dla personelu) oraz dostęp zewnętrzny (dla gościa hotelowego oraz personelu. Systemy te mogą być dodatkowo wyposażone w pamięć elektroniczną, dzięki której można się dowiedzieć m.in.: kto otwierał, kiedy, o której godzinie i które pomieszczenie.


Inne korzyści dla obiektu ze zostasowania kontroli dostępu (zamki hotelowe):

WYGODA
centralne zarządzanie dostępem dla gości, pracowników i pracowników zewnętrznych.

BEZPIECZEŃSTWO:
Uniemożliwienie nieuprawnionego dostępu. Każdy klucz jest niepowtarzalny i odpowiednio zakodowany.

EKONOMICZNOŚĆ / REDUKCJA KOSZTÓW:
Pozwala redukować koszty pracownicze.
Niewielki zakres konserwacji: zasilanie akumulatorowe.

FUNKCJONALNOŚĆ:
Jeden jedyny klucz dla najróżnorodniejszych zastosowań.

niedziela, 6 maja 2012

Wirtualizacja usług

Każda firma, która ma zamiar się rozwijać, a jak mniemam, ma każda, bo nikt nie zakłada firmy z myślą stagnacji i braku progresu, musi podążać za wszelkimi innowacjami związanymi z oprogramowaniem komputerowym.
Za każdym razem, gdy pewna nowość się pojawia, pojawia się również pytanie, czy warto za tymi nowinkami technologicznymi podążać.
W tym miejscu należy wspomnieć o SOA czyli o architekturze zorientowanej na usługi. To właśnie ona pozwala na szybkie wprowadzanie zmian w działach IT, a także adoptowanie tych zmian. Wdrożenie tej architektury nie jest proste, jednakże warto zainwestować w te nowoczesne koncepcje.
Nie od dziś wiadomo, że w branży nowych technologii klasyczne narzędzia przeznaczone do przeprowadzania testów, nie nadążają i trzeba się zastanowić nad nowszymi rozwiązaniami, które sprostają wszelkim wymaganiom związanymi z nowoczesnymi zmianami i zaawansowanym aplikacjom. I tu właśnie pojawia się wirtualizacja usług, która to stanowi jedną z nowszych koncepcji umożliwiająca wprowadzenie oprogramowania na rynek szybciej, mimo wyższej jakości oraz zmniejszonego ryzyka.
Owa wirtualizacja usług ma na celu udawanie zachowania oprogramowania po to, aby usunąć bariery związane z zależnościami między programistami a testerami. W teorii, dzięki temu, zmniejsza się czas poświęcony na stworzenie oprogramowania oraz koszty przeznaczone na stworzenie go. Dzięki ścisłej współpracy testerów z programistami, mogą się mocno ograniczyć prace programistyczne. Warto również dodać, że czasochłonność i wysokie koszty stworzenia scenariuszy testowych znacznie ograniczają zakres testu, a co za tym idzie, istnieje większe ryzyko, że gotowe oprogramowanie nie będzie wystarczająco dobre i bezbłędne.
Ogólnie rzecz biorąc, wirtualizacja dotyczyła wcześniej serwerów lub pamięci masowej. W tym jednak przypadku mowa tu o wirtualizacji, którą stosuje się w przypadku programowania, a także testowania nowych aplikacji SOA.
Samo SOA, w nowoczesnych i dużych firmach, nie jest niczym nowym, wręcz przeciwnie, to właśnie zorientowanie na usługi jest podstawą działania procesów związanych z nowymi technologiami. Nie pyta się już, kto korzysta z SOA, a raczej kto dostarcza najwyższej jakości usług, które będą jednocześnie stworzone najszybciej i najniższym kosztem. Dodatkowe pytanie, które się w tej sytuacji pojawia, brzmi, kto wyprodukuje oprogramowanie najwyższej jakości, które będzie jak najbardziej niezawodne, przy jednoczesnym ograniczeniu kosztów i czasu.
Dzięki tym zabiegom i dzięki wirtualizacji, możliwe jest stworzenie nowej warstwy usług bardziej efektywnych pod każdym względem – kosztów, elastyczności, czasu, stabilności i wielu innych.

piątek, 4 maja 2012

5 pytań o GPS

Obecnie najczęściej stosowanym systemem pozycjonowania satelitarnego jest amerykański system GPS. Wynika to w dużej mierze z jego zasięgu – obecnie całą Ziemię pokrywa sygnał z satelitów GPS. Tak dużego zasięgu nie posiada żaden inny system pozycjonowania satelitarnego. 
Wszystko jednak wskazuje na to, że w najbliższym czasie, globalnym zasięgiem będzie mógł poszczycić się rosyjski GLONASS oraz chiński Beidou. Jednak obecnie prym w nawigacji satelitarnej wiedzie GPS i to na nim właśnie chciałbym się skupić w tym artykule.
Czym jest system GPS?
Jest to system, który ma za zadanie umożliwić specjalnym urządzeniom (odbiornikom sygnału satelitarnego) wyznaczanie pozycji w czasie rzeczywistym. Odpowiednie oprogramowanie takiego urządzenia umożliwia również nawigację do celu. Ponadto urządzenia takie mogą podawać bardzo precyzyjny czas oraz dają możliwość pomiaru prędkości.
Kto zaprojektował ten system i po co?
System GPS został zaprojektowany przez amerykańskich naukowców. Miał on służyć amerykańskiemu wojsku i pod tym kontem był projektowany. Dopiero pewne wydarzenie nad ZSRR, a mianowicie zestrzelenie samolotu koreańskich linii lotniczych spowodowało, że Amerykanie podjęli decyzję o udostępnieniu tej technologii cywilom.
Jakie elementy tworzą GPS?
System ten posiada trójelementową budowę. Elementy te zwane są segmentami. Najbardziej zaawansowanym segmentem jest segment kosmiczny, który tworzą 32 satelity. Kontrolę nad całym systemem sprawuje segment nadzoru, zwany również segmentem kontroli. Jak sama nazwa wskazuje, ten element GPS odpowiada za nadzorowanie pracą całego systemu. Przede wszystkim chodzi tutaj o nadzorowanie siecią satelitów. Ostatnim segmentem jest segment użytkownika, czyli wszelkiego rodzaju odbiorniki.
Jakie zastosowania posiada GPS?
Zastosowania tej technologii tak naprawdę ograniczone są tylko przez naszą wyobraźnię. System ten możemy stosować wszędzie tam, gdzie wymagane jest wyznaczanie pozycji, lub nawigacja do celu. Możemy więc tutaj przytoczyć chociażby nawigację samochodową, transport drogowy, geodezję, archeologię, fotogrametrię, kartografię, rolnictwo, żeglugę oraz lotnictwo.
Jaka jest dokładność technologii GPS?
Temat ten budzi wiele kontrowersji, ponieważ nie ma jakiejś precyzyjnego systemu, który określałby ten parametr. Zwykle jednak możemy liczyć na dokładność rzędu kilku, lub kilkunastu metrów. Wszystko zależy od jakości odbiornika oraz ilości widocznych satelitów. Jednak w ściśle określonych sytuacjach możemy liczyć na dokładność rzędu kilku milimetrów! Sytuacja taka ma miejsce, gdy skorzystamy z lokalnych stacji referencyjnych. W Polsce taki system nazywa się ASG-EUPOS.

Mini kamera- narzędzie szpiega

Rozwój technologiczny sprzyja pełnej, sprzętowej miniaturyzacji urządzeń. Obecnie nie stanowi już problemu stworzenie urządzeń, które mimo niewielkich rozmiarów będzie z powodzeniem rywalizowało z konwencjonalnym wyposażeniem szpiegowskim.
       Dość znaczący przełom w dziedzinie miniaturyzacji reprezentują kamery przemysłowe a w szczególności rejestratory operacyjne. Wysokiej klasy przetworniki obrazu oraz szerokokątne obiektywy pozwalają na maksymalne zoptymalizowanie jakości otrzymywanego obrazu w najwyższej możliwej rozdzielczości. Odznacza się on klarownością, nasyceniem palety barw oraz pozbawieniem zakłóceń. Obecnie mini kamera szpiegowska może zostać ukryta praktycznie wszędzie. Ograniczeniem jest jedynie wyobraźnia producentów sprzętu szpiegowskiego. Istotną kwestią do rozwiązania jest tylko zagadnienie zasilania urządzenia. Jeśli mówimy o  breloku lub zapalniczce to ważne jest aby zdecydować się na zasilanie akumulatorowe. Mimo swoich niewielkich rozmiarów akumulator jest w stanie dostarczyć urządzeniu energii na nawet 4 godziny pracy operacyjnej. Kamera szpiegowska w radio budziku czy zegarku jak najbardziej powinna pobierać zasilanie z sieci tak jak przedmiot który służy jako kamuflaż. Jest to obecnie najlepsze rozwiązanie ponieważ nie wzbudza podejrzeń osób trzecich. Przykładowo zegar na ścianie zasilany jest baterią 1.5V typu ,,paluszek”. Kamera potrzebuje do pracy 5V. W tej sytuacji należy dołożyć dwie sztuki baterii i liczyć się z tym ze będzie trzeba wymieniać baterie w zegarze co kilka dni.
       Standardowo urządzenie bez kamery szpiegowskiej pracuje nawet do dwóch miesięcy na jednym paluszku. Warto jest więc ukrywać mini kamery w przedmiotach pobierających zasilanie z sieci elektrycznej. Mowa tutaj o radio budzikach, termometrach mieszkaniowych, czujkach dymu czy ruchu. Sprzęt szpiegowski niewielkich rozmiarów może kupić praktycznie każdy. Atrakcyjne ceny sprawiają, że popyt znacząco wzrasta. Opisywane kamery szpiegowskie coraz częściej posiadają funkcję detekcji. Aktywują się do nagrania z chwilą wykrycia ruchu lub odpowiedniego poziomu dźwięku. Oczywiście rejestrowany obraz jest kolorowy i wzbogacony o strumień audio. Nagrania rejestrowane są na przenośnych kartach pamięci. Najczęściej maksymalna obsługiwana objętość to 16GB. Rozmiar ten pozwala na zgromadzenie około 10 godzin materiału operacyjnego. Warto nadmienić ze kamery te coraz lepiej radzą sobie w warunkach trudnych oświetleniowo.

czwartek, 3 maja 2012

Doładowanie telefonu w Internecie; szybko i bezpiecznie

Miałeś/aś kiedykolwiek problem z wprowadzaniem długiego kodu aktywującego doładowanie telefonu? Zdarzyło Ci się, że zgubiłeś/aś kupon z doładowaniem? Musiałeś/aś szukać miejsca gdzie sprzedają karty, stać w kolejce, szukać pieniędzy na zakup?
Dziewczyna z telefonem - doładowanie telefonu
A może brakowało Ci pieniędzy do określonej kwoty na doładowanie konta – złotówki, dwie?
Jeśli Twoja odpowiedź chociaż na jedno z tych pytań jest twierdząca, to rozwiązaniem jest dla Ciebie doładowanie telefonu przez Internet. Szczególnie, jeśli możesz to zrobić podczas innych ważnych sprawunków. Dzięki temu zaoszczędzisz dodatkowo czas, pieniądze i nerwy. I tutaj naprzeciw wychodzi dobry serwisy internetowy, np. centrum handlowe gdzie robiąc zakupy i korzystając z wielu innych usług, jaki oferuje, doładujesz swój telefon łatwo, szybko, bezpiecznie i bez żadnych dodatkowych opłat. Co więcej, możesz określić kwotę doładowania z dokładnością do 1 złotego. Wystarczy, wejść do odpowiedniego działu po czym należy wybrać operatora, wprowadzić swój numer telefonu i swój adres e-mail, na który dostaniesz potwierdzenie doładowania, a następnie kliknąć „Dalej”. Kolejną czynnością jest podanie kwoty doładowania z dokładnością do 1 zł. W zależności od Twoich potrzeb może to być, np. 7 zł, 29 zł czy 47 zł. Wyświetli Ci się od razu okres ważności konta i kliknij „Dalej”. W następnym polu wybierz formę płatności. Masz do wyboru kilkadziesiąt banków. Wybierz własny i kliknij „Dalej”. Kiedy pojawi się podsumowanie, sprawdź czy wszystko się zgadza, kliknij „Zapłać”. Zostaniesz przeniesiony do wybranego banku, gdzie należy podać swoje hasło do konta. Tam jest już gotowy wypełniony formularz, który wystarczy zatwierdzić, po czym zostaniesz automatycznie wylogowany. Jeśli coś chcesz poprawić kliknij „Wstecz”, popraw dane i ponów kolejne kroki. W chwilę potem zostanie wysłana informacja na Twój telefon oraz e-mail o doładowaniu. Jeśli nie masz konta w banku możesz założyć darmowe konto również przez Internet.. Pomyśl czy to nie jest wygodne? Wszystko na miejscu, żadnych kodów, kolejek, wymogów określonych kwot. A to wszystko bez żadnych dodatkowych opłat, szybko i skutecznie. Zyskujesz czas i pieniądze!

środa, 2 maja 2012

Najdroższe na świecie zegarki damskie i męskie

Za równowartość najdroższych kupić można całkiem niezłą posiadłość. Lub nawet kilka. Najbardziej luksusowe zegarki damskie i męskie to świat brylantów, złota i kamieni szlachetnych.
zegarek damskiPrzeciętnemu Kowalskiemu trudno sobie wyobrazić wyjście „na miasto” w zegarku za kilkadziesiąt tysięcy złotych. Nie mówiąc już o takim, który kosztuje złotych kilkaset czy kilka milionów. Przeciętnemu Kowalskiemu w ogóle trudno sobie wyobrazić taką kwotę. A tyle właśnie kosztują najdroższe zegarki damskie i męskie na świecie. Trzeba pamiętać jednak, że nikt ich nie nosi. A przynajmniej nie „na mieście”.
Najdroższym zegarkiem jest w tej chwili liczący dwieście jeden karatów czasomierz. Jest cena jest tak wysoka, że inne zegarki damskie w ogóle nie wytrzymują porównania. Kosztuje 25 milionów dolarów. Co sprawia, że są ludzie skłonni wydać takie pieniądze na zegarek, którego pewnie nigdy nie założą? Jego koperta wykonana jest z trzech brylantów w kształcie serca. Pierwszy z nich to piętnastokaratowy brylant różowy, drugi dwunastokaratowy brylant błękitny, trzeci jedenastokaratowy brylant biały. Do tego sześćset żółtych brylantów błyskających wokół około dziewięćdziesięciu kolejnych tego rodzaju kamieni. Godzinę sprawdzić można po otwarciu specjalnej klapki.
W porównaniu do wspomnianego czasomierza inne zegarki damskie czy męskie to niemal chińska taniocha. Drugi na liście jest zegarek, który kosztuje jedynie 11 milionów dolarów. Jego cechą szczególną jest wyjątkowo skomplikowany mechanizm. Z wyglądu przypomina tradycyjny, dziewiętnastowieczny zegarek z dewizką. Ten jednak wykonany jest z osiemnastokaratowego złota. Zegarek o dwóch tarczach wykonano jeszcze w 1932 roku i to widać. Jego posiadaczem był przez lata bankier Henry Graves.
Firma sprzedająca zegarek za 11 milionów dolarów jest też producentem innego superdrogiego zegarka, który na listę najdroższych wszedł w 2002 roku. Tym razem to jednak nie zegarki damskie, ale męskie są dla niego konkurencją. Wyceniono go na 4 miliony dolarów. Zegarek pokazuje czas w każdej z dwudziestu czterech stref i w zasadzie wydaje się być całkiem zwyczajny.
Czwartym na liście grupującej najdroższe zegarki damskie i męskie jest, jest zegarek który można było kupić na aukcji na 1,5 mln dolarów. Czym się charakteryzuje? Jest uważany za najbardziej złożony zegarek, jaki kiedykolwiek został wykonany. Jego produkcja zabrała ponad rok. Składa się z 834 części, których produkcja zajęła 10 tys. godzin. Zegarek pokazuje czas w dwóch strefach, ma wieczny kalendarz i mapę nocnego nieba.
Zajmujące trzecie miejsce zegarek, to w tym towarzystwie to w zasadzie prawdziwa okazja. Można go było kupić za jedyne 1,5 mld dolarów. Tym bardziej, że za tę cenę dostać można 688 mikroskopijnych części i piękną, błękitną tarczę.
Tak drogie zegarki damskie i męskie to luksusowe zabawki, których jedynym celem jest podnieść poczucie wyjątkowości właścicieli. Nie służą do odmierzania czasu, chyba, że za taki uznamy czas potrzebny na ich wykonanie. Przeciętny Kowalski natomiast może jedynie pocieszać się, że nie musi ich ubezpieczać.

wtorek, 1 maja 2012

Ogniwo Peltiera - skuteczne chłodzenie pod kontrolą

Wykorzystując ogniwa Peltiera można uzyskać niezwykle wydajne efekty chłodzące, jednocześnie zachowując pełną kontrolę nad regulacją temperatury. Nic dziwnego, że ogniwa te wykorzystywane są do chłodzenia preparatów biologicznych… lub wina.
Czym jest i jak działa ogniwo Peltiera?
 Ogniwo, bądź też moduł Peltiera to półprzewodnikowy moduł termoelektryczny pozwalający na transport ciepła pomiędzy dwiema stronami. Strony te ograniczone są cienkimi płytkami ceramicznymi, pomiędzy którymi naprzemiennie zostają umieszczone półprzewodniki – typu „p” oraz typu „n”. Dzięki blaszkom miedzianym, półprzewodniki są ze sobą połączone szeregowo pod względem elektrycznym. Po przyłączeniu ogniwa do źródła prądu elektrycznego, następuje pochłanianie ciepła po jednej stronie oraz jego przekazywanie na stronę przeciwległą. Odbywa się to ze względu na niedobory i nadmiary elektronów na górnych poziomach energetycznych w strukturze półprzewodników.
 Co bardzo istotne, ilość pochłanianego i oddawanego ciepła zależy od przyłożonego natężenia prądu, dzięki czemu można bardzo łatwo regulować temperaturę, jaką chcemy uzyskać. Wraz ze wzrostem natężenia (w określonych granicach) zwiększa się różnica temperatur uzyskana na dwóch równoległych płaszczyznach. Z tego właśnie względu moduły Peltiera wykorzystywane są w sytuacjach, które wymagają utrzymania bardzo precyzyjnej temperatury, ponieważ można dokładnie wyliczyć różnicę temperatur będącą następstwem przyłożenia do obwodu z modułem Peltiera prądu o określonym natężeniu. Dodatkową zaletą jest fakt, że Ogniwa Peltiera można łączyć, przykładając „gorącą” stronę jednego modułu do strony „zimnej” modułu kolejnego, maksymalizując w ten sposób efekt chłodzący.

 Wykorzystanie ogniwa Peltiera w praktyce
 Moduły termoelektryczne znajdują szerokie zastosowanie zarówno w warunkach laboratoryjnych, jak przemysłowych oraz domowych. Wykorzystywane są między innymi:
 - do chłodzenia próbek biologicznych
- przy transporcie tkanek
- w komorach klimatycznych stosowanych przy krioterapii
- do chłodzenia elementów elektronicznych, w tym procesorów komputerowych, generatorów wysokiej mocy
- w urządzeniach do chłodzenia wina i piwa
- w przenośnych lodówkach

Ogniwa Peltiera mogą również zostać wykorzystane do produkcji prądu elektrycznego. Zgodnie ze zjawiskiem Seebecka, jeśli złącza dwóch różnych półprzewodników lub metali znajdą się w różnych temperaturach, zainicjuje to przepływ prądu. Półprzewodnikowa budowa modułów termoelektrycznych pozwala w tym zakresie osiągnąć znacznie wyższą wydajność niż wykorzystanie zwykłych metali.