Straszne uproszczenia tutaj widzę...
W zasadzie oznacza to jak dużymi natywnie liczbami posługuje się komputer.
Więcej bitów - więcej danych się zmieści w 1 słowie maszynowym. Nie pozwala to wcale przetwarzać 2 razy więcej bo nie każda liczba jest dość duża by wymagać więcej niż 32 bitów (ba, większość nie jest).
Tak naprawdę z punktu widzenia laika różnica sprowadza się do ilości pamięci RAM, której można użyć w systemie oraz do ewentualnych problemów z kompatybilnością aplikacji.
Kwestia 1 jest łatwa - masz max 4GB przestrzeni adresowej i to musi starczyć urządzeniom i programom stąd realnie wykorzystasz ok 3.25-3.5GB.
Kwestia 2 jest techniczna i bez wchodzenia w szczegóły budowy programów, adresowania danych, linkowania bibliotek itd. się tego nie wyjaśni. Dość powiedzieć, że niektóre programy mogą mieć problem z działaniem na 64 bitowym systemie.
Gwoli wyjaśnienia - 32bit to nie historia, bo jeżeli ktoś korzysta z prostych i niezbyt pamięciożernych aplikacji (filmy, net) to lepiej mieć 32bity - nie ma problemów z kompatybilnością aplikacji.