oddio... qui zello sarà sicuramente più bravo di me...
è un pò il cane che si morde la coda...
tutto nasce dall'architettura dei processori...
corrono sempre di più, possono fare sempre di più... e per fare questo hanno bisogno di più "oggetti" da gestire... di una maggiore capacità di gestire...
Per gestire più oggetti, devono necessariamente avere tanti "nomi" disponibili...
16bit vedilo in pratica come il numero di nomi che possono assegnare...
è pari a 2^16 (65mila535).
I processori a 32bit lavorano invece con 2^32 (oltre 4 miliardi... ) "nomi"... che come vedi sono molti di più e tutto questo gli consente di fare molte più "cose".
Tutto questo si riflette su mille aspetti... come puoi immaginare...
Capacità di gestire più istruzioni, capacità di gestire maggior memoria, è come avere un alfabeto da cento lettere invece che di 25... quanti libri in più si sarebbero scritti, quante parole in più esisterebbero??
Ovviamente i programmi scritti per questi processori (quindi primi fra tutti i sistemi operativi), devono saper sfruttare questa capacità dei chip...
e cioè devono utilizzare questo nuovo "alfabeto" a 4 miliardi di lettere piuttosto che a 65000 lettere...
Quindi devono essere ottimizzati sull'architettura dei processori...
Su un sistema operativo a 16 bit (che vuol dire che gestisce le cose con un numero a 16 bit), ovviamente non girano i programmi a 32 bit... mentre spesso il viceversa è ovviamente consentito.. anche se c'è grosso spreco di risorse...
La spiegazione è per niente tecnica e molto semplicistica... ma spero che per ora ti possa essere utile...
ciao