Ciao, prima di tutto, sono contento di vedere tuoi commenti anche in quest'area.
francesco.aliotta ha scritto:Io credo che Aspie96 abbia centrato il punto cruciale.
Dove, cosa, come, quando?
francesco.aliotta ha scritto:Comunque, un chatterbot manipola risposte preconfezionate.
Non è esattamente solamente questo.
Un chatterbot può anche utilizzare altri fattori, come ad esempio la risposta stessa che ha appena ricevuto per creare stringhe nuove.
In altre parole, quello che ci scrive un chatterbot non è necessariamente al 100% opera di un altro essere umano.
francesco.aliotta ha scritto:Si tratta di un esercizio interessante ma, sostanzialmente, è poco più di un gioco.
In realtà potrebbe avere delle applicazioni per creare interfacce estremamente user-friendly.
Alcuni robot attuali hanno una buona intelligenza artificiale e sono davvero molto human-friendly (anche senza pensare al robot
ASIMO, basti pensare a
NAO).
francesco.aliotta ha scritto:Il test di Turing, tra l'altro, ha intrinsecamente dei grossi limiti.
Questo è chiaro!
francesco.aliotta ha scritto:Pensate alla situazione inversa. Dall'altra parte della linea di comunicazione sta un umano che cerca di simulare un computer che manipola risposte preconfezionate. E' un test che è già stato fatto, ovviamente. Devo dire che, alla fine, l'umano è sempre stato scoperto dopo un'analisi accurata delle risposte. Ma questo è sempre avvenuto perchè l'umano, entusiasta del successo che stava avendo nell'ingannare l'avversario, alla fine ha strafatto! Un umano che abbia una profonda comprensione di come operi realmente un chatterbot e che abbia sufficiente auto-controllo, potrebbe riuscire facilmente nell'inganno.
È più facile per un essere umano simulare un robot che per un robot simulare un essere umano.
francesco.aliotta ha scritto:Ci sono ovviamente altri obiettivi che potrebbero essere affrontati da un automa intelligente.
O meglio, che possono, visto che abbiamo già robot (piccola pignoleria: non sono automi, ma robot. Un automa, per definizione, non è intelligente) con una certa intelligenza.
francesco.aliotta ha scritto:Ricordiamoci che, quando DeepBlue ha battuto Gasparov, molti commentatori esperti (di scacchi ovviamente) hanno suggerito che DeepBlue avesse vinto perchè aveva giocato con maggiore "fantasia". Ovviamente, questo era un giudizio espresso entro parametri umani. Credo che nessuno si sogni di pensare che DeepBlue fosse intelligente e che avesse fantasia.
In un certo senso, aveva davvero fantasia.
Anche la fantasia di un essere umano è determinata da come è cablato il suo cervello, quindi, se un robot non può avere fantasia, allora nemmeno un essere umano può.
francesco.aliotta ha scritto:Il problema di definire l'intelligenza è connesso con il problema di definire la coscienza.
E qui mi stupisco di non aver ancora creato una discussione in proposito.
Perché ci sarebbe da discutere per secoli con centinaia di post al giorno.
francesco.aliotta ha scritto:Non credo che esista nessuno capace di dare una definizione oggettiva di coscienza. E non credo che nessuno possa mai riuscirci, se non altro perchè la definizione di coscienza da parte di un essere cosciente implica una evidente ricorsività!
No, non credo.
Se un essere umano da la definizione di "essere umano", non è una ricorsione.
Se un letterato dà la definizione di "letterato", non è una ricorsione.
Se su un dizionario leggo la definizione di "dizionario", non è una ricorsione.
francesco.aliotta ha scritto:Nessuno crede che il singolo neurone abbia una sorta di intelligenza.
Ha comunque l'intelligenza che ha normalmente una singola cellula.
francesco.aliotta ha scritto:La coscienza potrebbe non essere solo una questione di software, come per lungo tempo si è supposto. L'hardware potrebbe giocare un ruolo determinante.
L'hardware ha SICURAMENTE una grande influenza.