Qualche settimana fa sono andato in una scuola dell’infanzia, una esperienza molto bella che non avevo mai fatto prima. Avevo predisposto una presentazione molto semplice con a tema la Luna. Pochissime scritte (d’altra parte se l’uditorio non sa leggere, le scritte sono piuttosto inutili), molte figure, filmati. Qualcosa per interessare i più piccoli, cercando di non per annoiare.
Avendo ormai fatto più di qualche conferenza qua e là, ho appreso qual è, dal lato tecnico, la cosa che porta meno problemi sia all’organizzazione che al relatore (me stesso, in questo caso). C’è poco da fare, quel che è più sicuro che funzioni, è avere una presentazione PowerPoint sul computer. Attenzione, non solo su OneDrive (e i suoi simili, tipo Dropbox e Google Drive e simili metodi per memorizzare altrove le cose tue), ma scaricata in locale, perché la rete non funziona quando ti serve davvero. E comunque, non puoi pretendere di trovarla in una scuola dell’infanzia. Devi avere la presentazione sul tuo computer, deve proprio essere lì.
Sono ormai molti anni che ho a che fare con l’informatica (come potreste agilmente verificare raspando indietro in questo blog). Di conseguenza sono anni ed anni che ho a che fare con la posta elettronica. Fin da quando tale posta non viaggiava su Internet (che non c’era, o quasi) ma su rete Decnet, e ad essere raggiungibili (con tale sistema) erano solo le persone negli istituti scientifici. E ci si scriveva (prevalentemente) per motivi professionali, su terminali testuali, in monitor a fosfori verdi. Dovrei essere abituato un po’ a tutto, diciamo, per quanto riguarda lo scambio di corrispodenza digitale.
Eppure, certe cose mi creano ancora un (moderato) sconcerto. Per esempio, prendiamo Outlook, il famoso guardafuori, client email ufficiale di Microsoft.
Attualmente lo sto provando in ambiente Mac con una certa soddisfazione. Sì, perché Microsoft ha preso da tempo la sana abitudine di rendere disponibili molti dei suoi applicativi anche in ambiente Apple.
Fatemi subito dire, viste le premesse, ci si aspetterebbe che la versione d’eccellenza di un programma Microsoft sia quella che gira proprio su Windows, essendo il sistema operativo proprietario della ditta medesima. Nella eventualità in cui le versioni su diversi sistemi operativi arrivino all’utente finale, con caratteristiche diverse.
Che così accada in questo caso, è assai semplice verificarlo. Basta scaricare Outlook (che ora è gratis) su un Mac e su un PC per accorgersene. Che sia però vera l’assunzione che ho appena ipotizzato, beh è tutta un’altra storia. Come ho imparato quando, preso dall’entusiasmo per la validità e anche la bellezza del client Outlook per il Mac, ho voluto subito istallarlo anche sul mio portatile Windows.
E lì c’è stata la doccia fredda.
Perché i due Outlook – a dispetto del medesimo nome – sono diversi, ma diversi anche in faccende che per me sono diventate irrinunciabili in un client email, come la casella di posta unificata. Avrete capito, ma in breve, è quella prerogativa del programma, per cui se hai varie caselle di posta (e chi non le ha, magari una privata, una per il lavoro, una per le mailing list), puoi scegliere di vedere la nuova posta sia casella per casella, sia in una vista unificata, per avere tutto comodamente sotto controllo.
La casella di posta unificata ormai è di casa su tutti i programmi moderni per la posta, inclusi quelli per cellulari e tablet. Non solo ce l’ha Apple Mail, ma ce l’ha Thunderbird, ce l’ha l’ottimo Vivaldi Mail, eccetera (si potrebbe andare avanti parecchio).
E infatti, come ci si potrebbe aspettare, ce l’ha anche Outlook. Ma attenzione, quello per OS X. Quello per Android. Quello per Windows, invece no.
Ora, questa cosa è piuttosto difficile da digerire, ed infatti non ci volevo credere e dunque ci ho messo un bel po’ di tempo smanettando su Windows per attivare questa posta unificata che, in effetti, non c’è. Come si vede nel prontuario delle differenze, diligentemente compilato dalla Microsoft, al quale mi sono dovuto arrendere.
Ad aumentare la stranezza della cosa, va detto che perfino l’oltremodo spartano programma Posta – di default sulle istallazioni Windows fino a ieri – aveva questa caratteristica. Ora Windows sta spingendo ad abbandonare quel programma (che infatti verrà presto dismesso) per adottare Outlook, al suo posto. Il quale, al proposito, viene pomposamente definito il futuro di Posta, Calendario e Persone. Roba forte, no? Il quale futuro però – almeno al presente – non ha la posta unificata.
Nonostante questo, lo stanno spingendo parecchio. Con tanto di video pubblicitari (qui sotto) e di pagine dedicate
A questo punto sorge inevitabile la domanda, ma perché? È così difficile implementarla, questa posta unificata? E se c’era nel vecchio programma Posta? E perché la devo perdere, questa possibilità? Al momento, mi tocca ricorrere ad un altro programma di posta, se la considero irrinunciabile.
Insomma, se c’è una logica in tutto ciò, questa logica, al momento, posso dire che mi sfugge.
Crescendo, cambio. Credo capiti a tutti. A me capita per certo. Anche nelle scelte che potremmo dire più spicciole, registro un cambiamento di attitudini. Non solo davanti ai grandi temi della vita, mi sento un po’ diverso rispetto a prima. Ad esempio, se considero il mio rapporto con la tecnologia, noto alcune differenze sensibili, rispetto anche a poco tempo fa.
Credo che se uno cambia, cambia un po’ in tutto. Vuole fare tutto in modo nuovo, esplora diverse possibilità, si fa domande che prima non si faceva, sulle cose che utilizza, sul modo in cui lo fa. Questo, è il modo migliore per me, adesso? Forse sono stanco delle mie modalità ormai supercollaudate di fare le cose, e desidero forse provare altro?
Io lavoro da diverso tempo in ambiente misto, ovvero uso un iMac (uno a casa e uno al lavoro), ho un portatile Windows, ho un Chromebook. Come sistema operativo mobile (smartphone e tablet) uso dispositivi Android. Questa varietà è stata una scelta deliberata, del mio me stesso di qualche tempo fa.
Da curioso della tecnologia, l’idea era di mettere il naso in tanti framework diversi, per imparare qualcosa da ognuno. Perché mai togliersi il piacere di studiare Windows 11, come pure investigare in profondità macOS Sonoma? Basta utilizzare strumenti con Windows assieme a dispositivi Apple, ecco lì che il gioco è fatto. Si prende il meglio di tutti e due gli ambienti. A questo poi associamo quanto sarebbe divertente esplorare ChromeOS, il sistema operativo di Google, perché no? Sempre tutto intrigante. Eppure.
Eppure? C’è questo, che niente viene gratis (no, alla fine non è vero, ma la frase ci stava bene). Perché uno scopre che tutta questa esposizione alla varietà viene necessariamente a scapito della profondità. E questo è un problema, tanto più quanto i sistemi operativi si fanno articolati e complessi.
In altre parole, lascia stare il fatto che tutti sanno usare Windows nella maniera “basica”. Lanciare un programma, perfino istallarlo, è piuttosto facile (averlo reso facile e disponibile alle masse è un grande merito del sistema operativo di Microsoft). Lo stesso anche per il Mac (e ormai anche per Linux, anche se lì rimangono ampie possibilità, volendo, di complicarsi la vita oppure, diciamo, di rendersela più interessante). Lascia stare questo, questo infatti è assodato. Ma se vuoi usare il sistema al meglio, ti tocca imparare una serie di scorciatoie, combinazione di tasti per arrivare rapidamente ad un risultato, automazioni, e via di questo passo. Per gestire bene molte applicazioni allo stesso tempo, devi padroneggiare il sistema a finestre che ti trovi davanti. E non sono mica tutti uguali, i sistemi a finestre. Certe combinazioni per massimizzare la finestra, minimizzarla, affiancarla alle altre in quel determinato desktop virtuale, sono uniche del tal sistema operativo. Se vuoi essere veloce ed efficiente nel tuo lavoro, devi impararle.
Poi le applicazioni. Non tutte le applicazioni esistono per tutti i sistemi operativi, dunque magari succede che ti abitui ad un certo flusso di lavoro (tipo cosa uso per portare a termine cosa) e poi ti sposti nell’altro ambiente – passando magari dal fisso al portatile e scopri che una delle applicazioni che usavi dove sei partito, qui non c’è. Certo la suite Office esiste su Windows e su Mac, siamo d’accordo. Ma se voglio usare (anche) altro? Metto tutti i miei testi (che vanno solitamente su Stardust e EduINAF) su Ulysses? Ma su Windows non c’è. E nemmeno su Android. Uso Paint per elaborare rapidamente una immagine, magari con l’aiuto della famosa Intelligenza Artificiale (certo, per quel che vale)? Va bene, ma considera pure che sul Mac non c’è.
Edito un video con iMovie? E se voglio finire il lavoro sul portatile? Ah no, lì non c’è iMovie, lì trovo Climpchamp.
Oppure (e non è detto affatto che sia meglio), l’applicazione esiste, ma è diversa. Cioè, è lei ma non è lei. Un caso eclatante è iA Writer, l’applicazione con la quale scrivo praticamente tutti i post (e anche altro, come poesie e racconti, o come un romanzo). Esiste sul Mac e c’è per Windows, ma le applicazioni sono significativamente differenti. Puoi fare cose da una parte, che dall’altra non puoi fare. Del tipo, vuoi cercare del testo tra tutti i tuoi files dell’archivio? Lo puoi fare dal Mac, non dal PC Windows. Vuoi un indice autogenerato che si possa fruire già dall’anteprima del file, visibile nella libreria? Su Windows c’è, sul Mac invece no.
Già tutto questo mi porta a pensare che, abbandonate le passate velleità di conoscenza enciclopedica, in futuro puntare su una certa omogeneità di ambiente potrebbe essere una gran buona idea.
Ma la faccenda si fa decisamente più pregnante quando si prendono in considerazione anche i sistemi mobili. Quando è iniziato questo blog, la cosa tutto sommato non era così importante. Adesso, con il moltiplicarsi di applicazioni mobili per cui diverso lavoro si può svolgere da smartphone, è diventato importante che computer e smartphone si parlino efficacemente. Ma questo (state tranquilli) sarà oggetto di una mia prossima ruminazione.
Premetto che non sto per scrivere niente di esagerato sull’intelligenza artificiale, o almeno lo spero. Sono totalmente con Faggin quando avverte che c’è in essa, ben poco di “intelligente”. Sono marchingegni ben studiati, che possono indubbiamente essere utili (e di questo parlerò) ma niente di più (ed è già tantissimo).
E comunque – per una persona come me che ha visto Internet nascere (e arrivare negli istituti di ricerca prima ancora che la gente sapesse che c’era questa grossa cosa nuova), anzi che ha trascorso su questo pianeta molti anni prima che Internet vedesse la luce – osservare queste ultime evoluzioni è qualcosa che colpisce. Veramente stiamo entrando in un’altra epoca. E questo, non tanto perché abbiamo creato qualcosa dotato di una intelligenza propria, perché non assolutamente così (ancora, ascoltare Faggin per convincersi o leggersi il suo libro, Irriducibile). Quanto piuttosto, per la indubbia comodità di un nuovo strumento che diverrà – ci scommetto – sempre più parte della vita quotidiana. Fino ad apparirci indispensabile, se per alcuni non lo è già.
Collettivamente, siamo in un periodo di riflessione profonda sui vantaggi e sui problemi dell’intelligenza artificiale. E non potrebbe essere che così, in questa fase. Tra un poco la useremo e basta, dimenticandoci allegramente di tutto il contesto filosofico che ora è invece in primo piano. D’altronde accade sempre così, è successo con i lettori walkman1, con i primi videogiochi, con i telefoni cellulari, con la televisione a colori, praticamente con tutto.
Ho ripescato quasi per caso un post del 2014 in cui spiegavo perché “stavo con Apple” riguardo la scelta di un tablet. E con una certa curiosità mi sono messo a sfogliare la lista dei motivi per cui al tempo la mia scelta era caduta su iOS e non su Android. Questo mi fa capire ancora di più come le cose cambino velocemente, in campo tecnologico.
Per gioco, provo a riprendere i quattro punti dell’articolo orignale e aggiornarli. Inserisco qui di seguito una piccola tabella, a sinistra la voce originale del post del 2014, a destra la situazione odierna.
Non lo uso più. Ormai ci sono un sacco di buoni software per note, per tutti i sistemi operativi
In effetti molti dei motivi che avevo prima per preferire un dispositivo iOS sono ormai svaporati. E difatti da tempo uso un tablet Huwei, il glorioso – e per certi versi imbattuto – Huawei Mediapad M5, insieme con un Samsung Tab A8 acquistato più di recente, in caso serva uno schermo un poco più grande.
Per essere completi, andrebbe anche detto che se alcuni motivi sono spariti, se ne sono aggiunti altri che prima non avevo listato. Prima cosa il software per scrivere: su iOS potrei far girare Ulysses come pure iA Writer. Su Android Ulysses non esiste proprio e lo stesso iA Writer, pur esistendo, è decisamente più primitivo rispetto alla sua controparte per il mondo Apple.
Su iA Writer, come pure sullo struggimento per Ulysses e suoi miei ondeggiamenti verso il mondo Apple per (ormai) sua quasi esclusiva responsabilità, ho già scritto di recente.
Piuttosto, il vero problema, da come la vedo io, è che per qualche motivo – soprattutto nell’universo Android – c’è pochissima attenzione ai tablet di piccolo formato, che io invece trovo comodissimi. Basti dire che le caratteristiche del mio MediaPad (uscito, vorrei ricordare, nel lontano 2018), lo rendono ancora superiore – per molti versi – rispetto ai tablet contemporanei di comparabile grandezza.
Avevo ben sperato, per la verità, nell’uscita del Galaxy Tab A9 della Samsung, per poi patire l’ennesimo disappunto. Nella versione a 8.7 pollici, è decisamente un tablet economico con poche pretese: basti confrontare la risoluzione dello schermo, che è di 1340 x 800 pixel, con quella del MediaPad, che è invece di 2560 x 1600 pixel invece… bella differenza, no?
Per dirla tutta, il MediaPad infatti se la cava ancora più che bene. Tra l’altro a differenza degli Huawei moderni, ha pieno accesso al Play Store di Google, perché è stato prodotto prima dell’infausto blocco decretato per la casa produttrice cinese. Gli unici punti in cui senti di avere in mano qualcosa di un po’ datato, sono la memoria interna che al giorno d’oggi risulta davvero scarsa (miseri 32 GB, il che mi costringe a continue lotte per mantenere un po’ di spazio libero) e il fatto che la versione di Android sia bloccata, da tempo immemore, alla release numero nove.
Aggiornamenti, da tempo non ne vedono più: fino ad un certo punto sono arrivati quelli di sicurezza, ora mi pare che dalla casa madre non arrivi più nulla. Tutto tace. Ed è un vero peccato, perché il dispositivo di suo è veramente ottimo. Ribadisco, da tempo volevo sostituirlo con un altro circa della stessa dimensione, ma non trovo ancora nulla di percettibilmente migliore.
C’è insomma questa idea, che quello piccolo è quello economico, pensato per chi vuole spendere poco. Ma perché mai? Che c’entrano le dimensioni dello schermo con la spesa che si vuole affrontare? Quello piccolo è comodissimo da portare in giro, e potrei volerlo preferire ad uno più grande in diverse occasioni – pretendendo comunque un dispositivo dalle prestazioni onorevoli. Il fatto che il Tab A9 di dimensioni maggiori (indicato significativamente come Plus) abbia caratteristiche tecniche ben più allettanti rispetto al Tab A9 piccolino, del resto, la dice lunga su ciò che pensa Samsung.
Niente, su questo rimane solo Apple – piaccia o no – che sembra crederci, nei piccoli tablet. Per dire, il suo iPad Mini del 2021 non è affatto una versione degradata di un tablet più grande, ma rimane in sé un aggeggio di tutto rispetto (noto tuttavia che la sua risoluzione non raggiunge ancora quella del MediaPad, attestandosi su 2266 x 1488 pixel). E già si vocifera che una prossima versione di iPad Mini arriverà sugli scaffali dei negozi tecnologici, in questo stesso anno.
Già, ma Apple è Apple, nicely overpriced (come recitava una delicata presa in giro uscita tempo fa), e per ottenere un iPad Mini attualmente bisogna cavare fuori dal portafoglio la cifra non del tutto trascurabile di 659 Euro, stando al prezzo di listino. Lo so bene, non è la prima volta che mi spiaccico addosso alla politica dei prezzi della casa di Cupertino, riportandone varie contusioni.
E dunque? Niente, per ora mi tengo i miei due tablet Android. E vediamo un po’ cosa succede, nei prossimi mesi. E intanto che li uso, mi meraviglio delle stranezze del capitalismo internazionale, per cui un tablet di quasi cinque anni fa, fermo ad Android 9, è ancora – per certi versi – il meglio che si possa avere.
A peso d’oro o quasi, non ho fatto i conti. Certo che la cosa quando l’ho scoperta mi ha colpito non poco. Ora vi spiego. Come confessato nell’altro post di ruminazioni sui programmi di scrittura, sono da tempo in oscillazione tra il mondo Windows e quello Apple.
E per togliermi un poco dall’impaccio, mi diverto a comparare le vie percorribili, nell’uno e nell’altro universo. Per esempio, che portatile sui 13 pollici mi piacerebbe comprare? Sì, forse non è una domanda drammaticamente urgente, ma mi capita di farmela.
Ed ecco il problema. Da una parte mi attira il Galaxy Book 360, per il fatto che si può rigirare come un calzino (tipo) e si trasforma agevolmente in un tablet di tutto rispetto, con schermo touch e pennetta per scrivere, di serie. Dall’altra faccio un pensierino sul nuovo MacBook Air con chip M2. L’Air vanta una risoluzione molto maggiore (2560×1664 pixel, contro 1920 x 1080 del Galaxy), però, va anche detto che solo quest’ultimo è AMOLED.
Certo che iA Writer ha questo, che apri il programma e ti viene voglia di scrivere. Ancora non sai bene cosa scriverai, anzi non lo sai per nulla affatto. Però questa cosa è certa, ti va di scrivere. L’interfaccia linda e pulita è proprio un invito. Le lettere scorrono grandi dentro la finestra e il preview istantaneo ti dà un gusto particolare. Questo forse, chissà, è perché sei abituato ai codici che compilano, cioè a scrivere in un modo ed aspettarti che quello che scrivi venga modificato, interpretato in qualche modo.
Quindi anche se è un poco rozzo in tante parti gli si perdona molto, perché è molto simpatico per il resto. Poi il fatto che fa venire voglia di scrivere, davvero non ha prezzo.
Ho fatto l’abbonamento anche ad Ulysses perché mi attira molto con tutte le sue caratteristiche spaziali straordinarie, ma poi non so perché a scrivere torno sempre qui. Quasi sempre qui, voglio direi. Quindi non so, magari toglierò l’abbonamento tra un po’ di tempo, risparmiando qualche soldo. Tutto sta a vedere se riesco bene a proseguire il progetto del quaderno di Astronomia qui dentro iA Writer. Che poi è sempre il solito dilemma, Ulyssess esiste solo per il mondo Apple, e io nel mondo Apple ho appena un piedino, cioè ho mantenuto l’uso dell’iMac avendo sostituito il mio vecchio con quello equipaggiato con M1. Bel prodotto, non c’è che dire. Però in questo modo sono sempre a metà, un po’ su Apple un po’ su Windows (e un po’ su Android per tutto il resto), e quindi l’integrazione direi che manca. Abbastanza manca.
Non è notizia recente, d’altra parte qui non rincorro le notizie fresche fresche, ci sono siti ben più agguerriti che lo fanno benissimo. A me piace prendere tempo e riflettere, ruminare su alcune cose che hanno un risvolto tecnologico (mai soltanto tecnologico, beninteso).
E una cosa interessante – per chi ha vissuto il tempo delle lotte furibonde tra sistemi operativi, ovvero (soprattutto) tra fanatici di Linux e seguaci ortodossissimi di Windows – è questa alleanza relativamente nuova tra Microsoft e il mondo Open Source. Da tempo ormai, Windows permette di istallare Linux nativamente, con il Windows Subistem for Linux, in modo da creare un ambiente in cui usare applicazioni Windows (anche grafiche) e Linux al medesimo tempo e anche scambiarsi dati tra i due ambienti, con pochissimi problemi.
il sottosistema Windows per Linux (WSL) è una funzionalità di Windows che consente di eseguire un ambiente Linux nel computer Windows, senza la necessità di una macchina virtuale separata o di un doppio avvio. WSL è progettato per offrire un’esperienza facile e produttiva per gli sviluppatori che vogliono usare sia Windows che Linux contemporaneamente
Che le cose prima non stessero affatto così, beh è nella memoria di molti di noi. Ma per i più giovani possiamo notare come alcuni segnali rimangano a testimonianza di un’epoca ormai (felicemente) tramontata, quella cioè delle opposte e sfegatate tifoserie. Quelle dove – tanto per cambiare – al posto della coesistenza pacifica c’era l’idea di guerra intrapresa per liberare il mondo da questo o quel sistema operativo. L’altro era il male, in pratica. Vi ricorda qualcosa questo atteggiamento? Purtroppo, temo di sì.
Meno male che le cose cambiano. A volte, piano piano, cambiano anche in meglio. Ora c’è addirittura una pagina di Microsoft dove si spiega come istallare Linux. Vero, si sconsiglia di sostituire del tutto Windows con Linux con una bare metal installation, ma questo ci può stare: strumenti come la virtualizzazione o appunto il già citato sottosistema Linux permettono di evitare partizionamenti del disco rigido che possono sempre rivelarsi distruttivi, sopratutto se non si prendono le adeguate misure di precauzione.
Niente, non mi ricordo. Non mi ricordo assolutamente come venne scelto. Comunque, fu designato lui, come successore del Texas Ti99/4a: colui che doveva espandere i suoi fasti lanciandosi con ancor più decisione in questo misterioso campo dell’informatica domestica, ancora tutto nuovo. E far dimenticare (sperabilmente) le sue non poche ombre.
C’è da ammettere che fin dall’inizio si presentava come qualcosa di differente. Era un sistema integrato, ovvero aveva tutto con sé: un monitor dedicato, un lettore di cassette incorporato nell’unità tastiera (non c’era un disco rigido dove memorizzare i programmi, si dovevano sempre leggere da nastro o digitare ex novo). Tutto cambiato, insomma. Era un altro mondo. Significava finalmente dire basta ai collegamenti saltellanti con il registratore a cassette, lo stesso peraltro che si usava per ascoltare la musica (i CD o lo streaming non comparivano nemmeno nei sogni dei più arditi): la comodità di avercelo incorporato nel sistema era indubbia. E non solo. Basta anche con il dover piratare il televisore casalingo, sottraendolo alla fruizione domestica: da qui in avanti si poteva stare alla console tutto il tempo che si voleva, perfino durante il telegiornale! Insomma, la tendenza era quella, l’informatica stava prendendo solidità, superava le iniziali timidezze, smetteva di prendere in prestito cose destinate originariamente ad altri usi, si creava uno spazio tutto suo.
Certo, va anche detto che il CPC 464 non presentava alcuna possibilità collegamento ad Internet. Ma era tutto sommato una pecca minore, considerato il fatto, relativamente impattante, che Internet non esisteva affatto.
Qui faccio una pausa e mi interrogo. Quanto è ancora pensabile un tempo senza Internet? Sono pochi anni fa, ma sembra veramente un altro mondo. Come facevamo a fare le cose, chessò, metterci d’accordo su una cena, seguire un cantante, procurarci i biglietti per un concerto, coordinarci per osservare le stelle? Eppure, tutto questo si faceva. Io c’ero (ebbene sì), eppure anche se c’ero quasi fatico a crederci. Immagino dunque la fatica di immaginazione richiesta a chi ancora non c’era!
Comunque, eravamo ad un punto di svolta: addio ai “giochi” su cartuccia del Ti99/4a… titoli “formidabili” come Hunt the Wumpus e Tombstone City si potevano d’altra parte abbandonare senza troppi patemi d’animo… Del resto, per il CPC 464 c’erano ad aspettarci delle sorprese davvero carine, come scoprimmo presto: piccole gemme del calibro di Spindizzy, per dire. Veramente delizioso, non so quanto tempo ci abbiamo passato, io e Flavio, in sala hobby a giocare con quel titolo. Anche adesso una partitella me la farei volentieri, ogni tanto. Lo ricordo ancora con piacere, Spindizzy era proprio un piccolo capolavoro di pulizia ed eleganza. Un gioco fatto come si deve. E non era neanche il solo, come avremmo presto scoperto. Ricordo infatti – tra quelli che acquistammo – anche l’avventura testuale The Hobbit, anche se non mi ci sono mai messo seriamente (Flavio invece ci giocò parecchio).
Dunque, ottimo parco software. Certo il processore di bordo era ancora il diffuso Zilog Z80 che viaggiava alla rispettabile frequenza di 4 Mhz, ma a quei tempi non mi sembrava che ci fosse alcun problema.
Erano tempi di fermento, quelli. Si muovevano i primi passi con i linguaggi di programmazione, perfino diversi dal classico Basic, linguaggio quasi obbligatorio per la programmazione domestica: io avrei ben presto scoperto il Fortran, per il lavoro sulla mia tesi di laurea sull’eccesso ultravioletto nelle galassie ellittiche (ma questo è un’altro discorso).
Mi pare fosse a Monaco di Baviera (in vacanza appresso a papà, che invece lavorava davvero), che scovammo in un negozio una cassetta per caricare sul nostro Amstrad il linguaggio F, cassetta che ci portammo a casa, assai curiosi di imparare e sperimentare. Non ricordo che realizzammo programmi stratosferici in F, ma fu divertente esporsi alla sua logica. Capire che c’è un modo diverso di programmare, rispetto al Basic. Certo, tutte cose che adesso potrebbero far sorridere (dover caricare un linguaggio di programmazione da cassetta non è una cosa molto comoda tra l’altro), ora che siamo abituati a ben altri standard, ad altre procedure.
Erano i tempi, più o meno, in cui papà – astrofisico di mestiere – andava in giro con un dischetto da 3.5 pollici nella borsa, su cui non solo entravano tutti i documenti su cui stava lavorando, ma persino anche il software che li processava, quel WordStar che all’epoca rappresentava lo stato dell’arte in termini di word processor. Si inseriva il dischetto nel computer, si lanciava il software, quindi si caricava il documento di lavoro. E non si salvava nulla sul cloud, no. Il cloud aveva all’epoca un grosso difetto, che ne rendeva assai difficile l’uso: il difetto, come per Internet, era appunto quello di non esistere.
A pensarci è veramente strano: le risorse informatiche di cui disponevamo erano veramente risibili, in confronto alla situazione media odierna. Eppure, c’era un senso di novità palpabile, una idea irriducibile di evoluzione in corso: c’era un mondo nuovo che si esprimeva in queste inedite potenzialità tecniche, per cui il computer lentamente passava da oggetto di curiosità o da divertimento per appassionati, ad utensile (diciamo così) di vita quotidiana.
In questo senso i primi personal hanno fatto moltissimo, innanzitutto dal punto di vista culturale. Hanno condotto una parte di persone – tra cui, appunto, quelle che per professione od inclinazione erano già dentro il mondo dei numeri o dell’elaborazione professionale di testi – a considerare gli strumenti informatici e ad abituarsi piano piano ai loro vantaggi. E tutto poi si è propagato, progressivamente.
Ed intanto, proprio in quegli anni, c’erano persone – anche qui da noi – che già sperimentavano il concetto di rete. I tempi erano ormai maturi: un universo crescente di strumenti computazionali sostanzialmente isolati, stava per essere messo in mutua relazione.
Ovvero, stava veramente per cambiare tutto.
Immagine di apertura di Bill Bertram – Opera propria, CC BY-SA 2.5
Proseguo idealmente, in questo post, il discorso già avviato con il post precedente, ove si parlava bonariamente delle bufale espresse da taluni pronunciamenti dell’intelligenza artificiale.
Va chiarito in questa sede che l’intento non è appena far vedere che vi sia un certo grado di inaffidabilità in quanto viene fuori da questi moderni oracoli, anche se questo è già importante, se mette nella nostra testa una nota di prudenza. L’intento è mostrare come siamo di fronte ad un prodotto mirabolante, terribilmente utile ed interessante, ma che è in fase di crescita e richiede dunque molta accortezza, nell’uso.
In pratica, tutto potrebbe essere riassunto in un motto, quando usi l’intelligenza artificiale non spegnere quella naturale, che alla fine dice già tutto.