Definicja logarytmu
Od bardzo dawna naukowcy, między innymi astronomowie i fizycy, używają do swoich obliczeń dużych liczb. Często pojawia się też potrzeba wykonywania na nich pewnych obliczeń. W czasach, kiedy na świecie nie było jeszcze kalkulatorów ani komputerów, mnożenie takich liczb było bardzo uciążliwe. Dlatego do pewnych operacji używano logarytmów, które pozwalały zamienić pracochłonne mnożenie na łatwiejsze dodawanie.
Za ojca logarytmów uważa się Johna Napiera - bogatego szkockiego właściciela ziemskiego. W swoim dziele z 1614 roku Napier rozpowszechnił podany przez Josta Bürgiego sposób budowy tablic umożliwiających mnożenie liczb za pomocą dodawania innych liczb. Logarytmy dziesiętne zostały wprowadzone trzy lata później przez Henry'ego Briggsa zainspirowanego lekturą dzieła Napiera i dyskusjami z jego autorem.
Wynalezienie logarytmów było krokiem milowym, który znacząco ułatwił prace rachunkowe astronomom, żeglarzom, inżynierom i matematykom, między innymi Johannowi Keplerowi oraz Izaakowi Newtonowi.
Dzisiejsza formalna definicja logarytmu brzmi:
Logarytm o dodatniej i różnej od jedynki podstawie a z dodatniej liczby b to wykładnik potęgi, do której należy podnieść podstawę a, aby uzyskać liczbę b.
Logarytmy mają mnóstwo własności analogicznych do własności potęgowania. Do najważniejszych wzorów należą: logarytm iloczynu, logarytm ilorazu, logarytm potęgi oraz zamiana podstawy logarytmu.
Obecnie logarytmy stosuje się w chemii - do definiowania skali pH, w fizyce - na przykład do definiowania poziomu natężenia dźwięku oraz wysokości dźwięku, w statystyce, ekonomii, astronomii, a nawet psychologii. Skala Richtera, za pomocą której mierzy się natężenie trzęsienia ziemi, również ma związek z logarytmami.
Ciekawym zastosowaniem logarytmów jest Prawo Benforda sformułowane po raz pierwszy w 1881 roku przez kanadyjskiego astronoma i matematyka Simona Newcomba. Zauważył on, że w tablicach logarytmicznych znajdujących się w bibliotece pierwsze strony są brudniejsze, a co za tym idzie częściej przeglądane, niż dalsze. Swoim odkryciem podzielił się ze światem na łamach American Journal of Mathematics, jednak nie zostało ono docenione. Po 57 latach podobną obserwację poczynił Frank Benford. Sformułował on prawo, które orzeka, że w dużych zbiorach liczbowych cyfra x występuje z częstością równą logarytmowi dziesiętnemu z odwrotności liczby x powiększonej o 1. Swoje obserwacje poparł empirycznie, weryfikując je na zestawach takich danych jak: powierzchnie rzek, liczby drukowane w gazetach i ceny. Dziś prawo Benforda stosuje się między innymi do wykrywania defraudacji oraz sprawdzania poprawności zeznań podatkowych.