Jump to content

Intelligenza Artificiale


Frattaglia

Recommended Posts

Turing è una delle più brillanti menti del XX° secolo: se Von Neumann ha inventato la struttura del calcolatore, Turing è il padre del "modello conputazionale", colui a cui si deve l'idea stessa di algoritmo

molti sostengono che la macchina di Turing sia anche il paradigma dell'intelligenza artificiale, secondo me non è così: credo che il lavoro di Turing sia in realtà il primo passo e che ci sia tutto un percorso da compiere verso l'intelligenza artificiale

questa a mio avviso non potrà basarsi sulla macchina di Turing, ovvero non potrà essere "algoritmica"

l'algoritmo è per la sua natura intrinsecamente seriale e rigido, non adattativo e quindi "chiuso" rispetto al paradigma stimolo - risposta che è la tipica interazione "intelligente"

ma senza Turing questo passo, che pure è da compiere per superare il suo stesso modello, non sarebbe stato neanche pensabile

 

Non credo, nel senso... è ovvio che se parliamo di intelligenza artificiale, questa dovrà essere creata sulla base di una struttura di calcolo (sennò non sarebbe artificiale) e questo necessita, giocoforza, di algoritmi.

In realtà ci sarebbe un lunghissimo discorso da fare, a riguardo, su cosa possa essere definito come "intelligenza". Secondo Turing una macchina sarebbe stata intelligente quando sarebbe stata capace di ingannare un uomo parlandoci e di farsi credere un essere vivente. Al momento grossa parte della ricerca sull'intelligenza artificiale va verso altri obiettivi.

In realtà ritengo che ci sarebbe un discorso etico da fare a riguardo... anche gli animali sono simili a noi in quanto provano sentimenti e sono dotati di capacità di ragionamento. Ritengo che, se dovessimo voler creare qualcosa di artificiale e simile a noi, dovremmo puntare più sulla capacità di provare sentimenti che sulla capacità di poterci ingannare (ammettiamolo, nessuno potrebbe ritenere che un cane una scimmia o un delfino, scrivendo da dietro uno schermo, sia una persona umana). Ma è ovvio che è difficile da determinare cosa è un sentimento: anche un computer, se opportunamente programmato, mi può dire "sono triste".

 

Da quello che mi dicono i miei colleghi che studiano AI, probabilmente per ottenere qualcosa di simile a un cervello umano si potrebbe partire dalla base di una rete neurale. Il che potrebbe portare a dei grossi problemi etici: se io creassi realmente una macchina "umana", avrei poi diritto a spegnerla e togliergli la corrente? Non la starei "uccidendo"?

 

 

 

 

Ad ogni modo, grazie per il post su Turing :)

Edited by Frattaglia
Link to comment
Share on other sites

Non credo, nel senso... è ovvio che se parliamo di intelligenza artificiale, questa dovrà essere creata sulla base di una struttura di calcolo (sennò non sarebbe artificiale) e questo necessita, giocoforza, di algoritmi.

 

non parlerei di algoritmi perché (nel senso canonico) l'algoritmo è un modello deterministico che associa a un certo set di valori in ingresso un determinato set di valori in uscita, e così lo pensò e lo definì Turing

nel caso di IA il determinismo non è un metodo di lavoro appropriato, ma occorre probabilmente individuare dei "meta - algoritmi" che creino modalità di auto - apprendimento a partire dai valori in ingresso, o stimoli

in sostanza a fronte di un campo strutturato di premesse (gli stimoli) l'IA dovrebbe costruire una rosa di possibili comportamenti e scegliere tra le risposte possibili sulla base di un criterio di appropriatezza, in quel contesto e in quel momento (quindi basato anche sull'esperienza appresa), tra risposta e stimolo

l'approccio è darwiniano

ma è un discorso complicato

 

Da quello che mi dicono i miei colleghi che studiano AI, probabilmente per ottenere qualcosa di simile a un cervello umano si potrebbe partire dalla base di una rete neurale. Il che potrebbe portare a dei grossi problemi etici: se io creassi realmente una macchina "umana", avrei poi diritto a spegnerla e togliergli la corrente? Non la starei "uccidendo"?

 

 

 

certo, se la rete neurale esiste e funziona per un organismo biologico questa è la chiave: anche qui comunque gli studi sono appena agli inizi (ad esempio i neuroni cerebrali non sono funzionalmente tutti uguali ma esiste probabilmente una "gerarchia degenere" o se vogliamo si formano "reti di reti": il linaguaggio è il tipico caso di una "rete di reti", ovvero una rete che descrive il contenuto di una rete di ordine gerarchico inferiore, che potrebbe essere il cervello rettiliano stimolo - risposta, e la parola è una "meta - risposta" ad un "meta - stimolo", una sorta di azione sublimata)

Edited by conrad65
Link to comment
Share on other sites

In realtà io credo che per simulare un cervello umano sia inoltre necessaria una forte (ed eccessiva) ridondanza.

 

Ad ogni modo, anche il cervello umano ha dei limiti: nell'insieme dei problemi NP (per chi non sappia che sono, si tratta di una classe di problemi considerati "complessi") spesso gli esseri umani trovano istintivamente buone soluzioni, ma non ottime. Ovviamente, parlando di problemi complessi è complesso trovare la soluzione ottima anche per il cervello umano.

La ricerca attuale spinge per creare algoritmi che arrivino alla soluzione ottima.

 

Un'altra delle domande a riguardo quindi è: vogliamo costruire computer intelligenti, o computer che siano simili agli uomini?

Perchè spesso il cervello umano si inganna anche da solo.

Edited by Frattaglia
Link to comment
Share on other sites

aggiro la tua questione dicendo che l'utilità dell'IA (imho) non è quella di ricreare un essere umano, ma di avere una macchina che esprima soluzioni creative in assenza di una modellazione degli stimoli

ci sono innumerevoli situazioni (qui mi riferisco soprattutto al real time ma si può estendere il discorso a modelli dinamici o "tranquille" computazioni da salotto di soluzioni di equazioni differenziali) in cui non sono prevedibili a priori tutti gli scenari possibili, e se non puoi prevedere gli scenari non puoi neanche modellare le opportune risposte e racchiuderle in un algoritmo

in questi casi serve una macchina che sia in grado di adottare delle "scorciatoie" proponendo una decisione sulla base dell'esperienza pregressa o di una somiglianza a situazioni modellate: questo è il tipo di aiuto che mi aspetto dall'IA

non è esattamente un problema di ricerca operativa, perché anche in quel caso l'algoritmo esiste ed è stabilito una volta per tutte

è piuttosto una capacità creativa meta - algoritmica, in cui l'algoritmo si adatta al problema e viene modellato da quello

non seguo molto i recenti sviluppi ma credo che qualcosa che si possa avvicinare a un simile approccio è la rete neurale che autoapprende mediante modifiche retroazionate dei pesi sinaptici

qui il modello lineare input - output di Turing evidenzia dei limiti strutturali, così come l'architettura di Von Neumann

Edited by conrad65
Link to comment
Share on other sites

Io sono pragmaticamente d'accordo con l'impostazione di Frattaglia del problema.

 

Il test di Turing nasce da un gioco in voga nella Gran Bretagna di quegli anni

che consisteva nel capire chi fosse maschio e chi fosse femmina

in base alle risposte - redatte a macchina - date da due volontari.

 

Io sono talmente persuaso di poter riuscire in un simile gioco

che mi sarei fatto assumere come cacciatore di androidi in Blade Runner.

:)

 

L'intelligenza artificiale non può essere altro che la capacità di ingannarci;

"perché un computer non può pensare più di quanto un sommergibile possa nuotare" (cit.)

Link to comment
Share on other sites

scusate se mi intrometto anche se con poca esperienza nel campo penso che una variabile da non sottovalutare sia la osservazione umana.

non so se saremo in grado dal nostro punto di osservazione di capire realmente se sia vera IA o solo una macchina opportunistica in grado di adattarsi ai test per l intelligenza artificiale.

in fondo cos'è l intelligenza?penso che il primo vero passo verso la IA sia il trovare la coscienza e non la conoscenza o l' autoapprendimento, perché caratteristica principale sara la coscienza di se stessa come macchina.

spero di non aver scritto troppi errori di ortografia con tutti qesti paroloni. :azz:

quasi quasi mi vado a rileggere qualcosa,devo avere qualche libro sulla materia,solo visto la mia bassissima velocità di lettura mi ci vorrà un po :gha:

Link to comment
Share on other sites

Otamarco, la "coscienza degli altri" non esiste.

E' solamente una forma della nostra immaginazione.

Tu puoi avere coscienza di te e puoi supporre che anche gli altri ne abbiano una:

ma alla fine la loro "coscienza" per te sarà sempre riducibile a un modello opportunistico.

Link to comment
Share on other sites

proprio questo intendevo una coscienza artificiale è automaticamente una intelligenza ma per l osservatore qualunque esso sia non sarà mai possibile la sua visione quindi teoricamente potrebbe già esistere una forma di intelligenza artificiale.

so per certe che molti studi vanno alla ricerca della definizione di intelligenza artificiale che non puo essere ridotta ad autoapprendimento e pensiero fantasioso ma dovra essere allargata ad un intelligenza diversa da come la vediamo ora.

ora è meglio che mi fermo finche non ripasso la memoria potrebbe farmi brutti scherzi :hm:

Edited by Loup-garou
Eliminato post integrale del post precedente
Link to comment
Share on other sites

Il test di Turing nasce da un gioco in voga nella Gran Bretagna di quegli anni

che consisteva nel capire chi fosse maschio e chi fosse femmina

in base alle risposte - redatte a macchina - date da due volontari.

 

Questo non lo sapevo!

Immagino che l'avrei superato anche io u.u

 

In realtà esiste il premio Loebner che è una competizione che fanno una volta l'anno, tra esseri umani e intelligenze artificiali... vengono messe entrambe le categorie dietro a uno schermo e questi comunicano con i giudici, che devono cercare di capire chi sia il computer e chi sia l'essere umano. Sarebbe divertente partecipare come cavia umana :P

 

 

Tornando in topic, in realtà Conrad, anche un approccio del genere (rete neurale, algoritmo che apprende da sè) si basa comunque su macchine (una o più) alimentate da elettricità, 0 o 1, che non fanno altro che prendere degli input, elaborarli a basso livello tramite istruzioni macchina che non sono altro che istruzioni più elaborate tradotte, e restituire 0 e 1 in output.

Voglio dire... ormai queste cose (reti neurali, algoritmi adattativi) si fanno via software, ma la base computazionale su cui funzionano è sempre la stessa. Almeno che io sappia :look: la ricerca in questo ambito non è del tutto il mio campo di studio.

 

 

E' "brutta" la domanda filosofica che avete tirato fuori invece Almadel e Otamarco... in realtà non abbiamo prove che anche le altre persone abbiano una coscienza, se non basandoci sulla nostra immaginazione. :-/

Link to comment
Share on other sites

 

Tornando in topic, in realtà Conrad, anche un approccio del genere (rete neurale, algoritmo che apprende da sè) si basa comunque su macchine (una o più) alimentate da elettricità, 0 o 1, che non fanno altro che prendere degli input, elaborarli a basso livello tramite istruzioni macchina che non sono altro che istruzioni più elaborate tradotte, e restituire 0 e 1 in output.

Voglio dire... ormai queste cose (reti neurali, algoritmi adattativi) si fanno via software, ma la base computazionale su cui funzionano è sempre la stessa. Almeno che io sappia :look: la ricerca in questo ambito non è del tutto il mio campo di studio.

 

 

certo, la rete neurale che autoapprende può essere nient'altro che un software scritto in C++ quindi basarsi dal punto di vista algoritmico sulla definizione di Turing e dal punto di vista del hardware sull'architettura di Von Neumann

bisogna però capire se questo non introduca delle limitazioni, che siano inefficienze computazionali, incapacità a compiere più elaborazioni in parallelo, etc.

ma andando più in profondità, il modello cerebrale che ci propone madre natura è fondamentalmente un modello caotico, retroazionato, degenere, in cui si formano "anelli" stimolo - risposta che attraversano l'ambiente e si chiudono nel cervello stesso

è un modello radicalmente "non" Turing

il cervello è come se fosse un generatore di risposte pseudo - casuali agli stimoli, è in sostanza un campo biologico evolutivo in cui avviene una lotta per la sopravvivenza: però non competono cromosomi ma "idee"

il linguaggio ha permesso di spostare questa competizione dall'esperienza diretta alla sua simulazione mentale, fornendo uno strumento per simulare internamente ciò che l'animale deve sempre sperimentare, a rischio spesso della sua stessa vita

Link to comment
Share on other sites

Non tutto quello che è scritto è esatto. La macchina Il Test ( @@Frattaglia hai ragione ) di Turing è un test famoso ma oramai, come dire, desueto. Il discorso sarebbe molto lungo, dato che bisognerebbe innanzi tutto definire cos'è la coscienza e cos'è l'intelligenza, cosa si intende per essere pensante e cosa qualifica un gatto come "vivo" e non un ipotetico robot dotato di potenzialità simili al gatto.

 

Onore a Turing che ha posto le basi di una teoria interessante, e di un approccio meccanicistico che comunque ha ancora oggi il suo senso anche se c'è da dire che l'approccio IA classico dell' imitazione è un po' datato.

 

Lato software, la questione "algoritmica" è oramai un approccio antico, classico, e con un livello di approssimazione eccessivo, un po' come voler parlare di quantistica usando le leggi di Newton. Già da molto tempo è possibile creare sistemi auto-adattanti, macchine cioè che sono in grado di modificare la propria base di dati sulla base di regole logiche, del tutto simili alla logica umana. Il Lisp è un famosissimo quanto antico linguaggio di programmazione che permette un approccio similare. E' sempre possibile poi immaginare logiche di ordine superiore, con quindi regole di meta-informazione, capaci di modificare addirittura le regole di logica di ordine inferiore e inserire elementi di incertezza.

Un certo tipo di reti neurali, le reti Bayesiane, permettono di sintetizzare risultati "probabili" da basi di dati spurie, quindi derivare un comportamento sulla base di dati generici ambientali.

Infine, la possibilità immense delle basi di dati quantiche, che consentono di superare il limite "binario" alla base dei sistemi attuali, disegnano potenzialità molto elevate alla capacità di un sistema artificiale di evolvere.

 

Certo, ognuna di queste cose è ancora molto "rudimentale", e le potenzialità ancora da sviluppare. Però, volendo estrapolare tali potenzialità in un futuro, un po' come hanno fatto molti scrittori di fantascienza con le IA di vario tipo (cito ad esempio Dan Simmons con Hyperion e successivi), l'ipotesi di un sistema complesso "pensante" secondo delle ragionevoli definizioni di pensiero, non è affatto da escludere.

 

E un sistema che evolve, che reagisce all'ambiente su base logica, che si sviluppa e si procrea, è di fatto "vivo".

Edited by korio
Link to comment
Share on other sites

Occhio a non confondere macchina di Turing con test di Turing ;)

Il secondo è un po' naif... la prima è il modello di computazione alla base della teoria dell'informatica :)

 

E un sistema che evolve, che reagisce all'ambiente su base logica, che si sviluppa e si procrea, è di fatto "vivo".

 

A questo punto io devierei un po' il discorso: quanti di voi hanno visto Blade Runner?

Diventeremmo forse il "Dio" di questi esseri?

Link to comment
Share on other sites

Il Lisp è un famosissimo quanto antico linguaggio di programmazione che permette un approccio similare.

 

wow ricordo ricordo :)

tu ricordi il Prolog Korio? credo praticamente non sia mai uscito dalle aule universitarie e non ho idea se esiste ancora ma aveva un'eleganza e una stringatezza nell'uso della ricorsione fenomenale

ok scusate l'OT

Link to comment
Share on other sites

Certo. Ho ancora ricordo di programmi scritti in Prolog :)) quando ho fatto ste cose non si parlava ancora neanche di programmazione ad oggetti quindi era proprio un salto in un mondo e in una filosofia di programmazione assolutamente futuristica :).

Link to comment
Share on other sites

A questo punto io devierei un po' il discorso: quanti di voi hanno visto Blade Runner?

quanti hanno visto Blade Runner?

oddio stimo parlando di IA :asd: mi meraviglerei se qualcuno non lo avesse visto

film magnifico e profondo :love:

Diventeremmo forse il "Dio" di questi esseri?

probabilmente il concetto di divinità verrebbe meno.

della parte umana perche si sarebbe raggiunto il livello di "dio"

dalla parte della IA avendo completamente visibile la sua "creazione" potrebbe non sviluppare nessun concetto di divinità.

ora esco e vado a rivedere per la millesima volta Blade Runner ;)

Link to comment
Share on other sites

A questo punto io devierei un po' il discorso: quanti di voi hanno visto Blade Runner?

Diventeremmo forse il "Dio" di questi esseri?

 

 

probabilmente il concetto di divinità verrebbe meno.

 

 

distinguerei tra manipolazione genetica e creazione di manufatti artificiali

 

nel primo caso, parlando in termini informatici, possiamo fare una potente programmazione a oggetti avendo le funzioni base della vita a disposizione da miliardi di anni di evoluzione: ma siamo realmente creatori o solo astuti manipolatori di codice genetico?

rientra in questa categoria l'uomo come creatore della pecora Dolly

a proposito come si colloca la pecora Dolly nella diatriba tra evoluzionisti e creazionisti, che è una diatriba molto meno scema di quello che potrebbe sembrare a prima vista?

 

nel caso di realizzazione di apparati artificiali che simulino alcuni aspetti degli organismi viventi, come può essere l'IA o la robotica, possiamo secondo me parlare di vera e propria creazione, perché partiamo dalle forze stesse della natura, le stesse da cui è partita la vita per evolversi

 

a meno che non arrivi Dio a riscrivere le regole, ma in quel caso sta barando :asd:

Edited by conrad65
Link to comment
Share on other sites

tu ricordi il Prolog Korio? credo praticamente non sia mai uscito dalle aule universitarie e non ho idea se esiste ancora ma aveva un'eleganza e una stringatezza nell'uso della ricorsione fenomenale

ok scusate l'OT

Esiste ancora, te lo confermo... quei poveracci dei miei colleghi che hanno fatto l'esame di AI quest'anno se lo sono sorbito... a me invece capitarono le catene di Markov :P

 

 

In Blade Runner in realtà i replicanti venivano creati... ogni parte di loro era costruita da qualcuno (il tipo che costruiva gli occhi o Sebastian che creava il cervello), e nel film Roy tratta il cattivo (perdonate ora non mi viene il nome) esattamente come se fosse il loro padre e Creatore.

E' effettivamente una metafora dell'umanità.

 

 

Tornando sull'argomento... in realtà l'accettazione dell'ipotesi che noi possiamo creare un essere senziente crea un enorme scompiglio... o meglio... a questo punto bisognerebbe modificare molto le nostre idee riguardo a cos'è la vita.

 

Tu in pratica dici che con Dolly, noi non "creiamo" ancora, manipoliamo soltanto quello che già c'è. Ma con un'ipotetica intelligenza artificiale senziente, noi arriveremmo al rango di creatori?

Tutto questo scombussola tutte le mie convinzioni riguardo all'anima :P

Link to comment
Share on other sites

 

Tu in pratica dici che con Dolly, noi non "creiamo" ancora, manipoliamo soltanto quello che già c'è. Ma con un'ipotetica intelligenza artificiale senziente, noi arriveremmo al rango di creatori?

 

 

oggi è plausibile ipotizzare l'esistenza di un "creatore" dell'umanità, di cui potremmo essere le pecore Dolly, senza andare a scomodare nè Darwin nè la teologia

questo a mio avviso fa saltare ambo i lati della diatriba creazionismo - evoluzionismo, e la cosa davvero divertente di tutta la faccenda è che non ce ne siamo neanche accorti

Link to comment
Share on other sites

Icoldibarin

Occavolo già si parla di Lisp e Prolog e si entra nel cult dei temi scottanti dell'intelligenza artificiale.

Piccolo inciso Lisp e Prolog in università si usano ancora, e il Lisp sicuramente non solo in università (Ehmn, il mio avatar dovrebbe dire qualcosa!)

 

Il terreno dell'IA è insidioso e la filosofia che ci sta dietro mi suscita domande per me ancora irrisolte. Consiglio a tutti una lettura de "La società della mente" di Marvin Minsky. Un libro che, anche se non se ne condividono tutte le idee è assolutamente illuminante e spiazzante. Non lo ho ancora finito, ogni volta che leggo una pagina mi metto a ripensarci per 20 minuti.

Link to comment
Share on other sites

Per me il test di Turing non solo è un test valido, ma è l'UNICO concepibile per verificare se in effetti siamo di fronte a una coscienza/intelligenza artificiale. Quello che in effetti facciamo tutti i giorni, quando ci troviamo di fronte ad un altro individuo cosciente, è un test di Turing: se ci convince di essere cosciente, noi diciamo che lo è, altrimenti diciamo che non lo è. Non è possibile fare esperienza diretta di una coscienza degli altri (almeno all'atto pratico; la lettura di Dennett mi ha convinto della possibilità teorica di fare una cosa del genere), quello che si fa è semplicemente rilevare le sue manifestazioni esteriori. L'unica cosa che possiamo fare è spingerci un po' oltre, utilizzando un approccio funzionalista, e correlare la manifestazione esterna dell'atto sottoposto al test ad un determinato stato funzionale della macchina. Più o meno come si fa con la macchina della verità, scopriamo che lo stato interno di chi parla è più complesso di quanto non ci stia dando a vedere. Se potessimo avere anche un quadro perfetto di tutte le sue connessioni neurali in attività, oltre alle manifestazioni ordinarie della coscienza, allora avremmo risolto l'intera problematica della coscienza umana. E fatte le dovute analogie con gli stati funzionali e le connessioni di una IA, avremmo anche progettato un test di Turing perfetto, a mio avviso.

 

D'altro canto, anche dal punto di vista concettuale, la possibilità dello Zombie, ovvero dell'essere che sembra in tutto e per tutto cosciente ma in realtà non lo è, mi convince veramente pochissimo...

Link to comment
Share on other sites

@@FreakyFred quello che tocchi è un tema classico in IA. In effetti è l'approccio ingegneristico della black box: si prende un oggetto e si modella il comportamento in base al sistema stimolo/risposta, e se due black box hanno il medesimo comportamento, sono di fatto oggetti interscambiabili. Così, una macchina che a stimoli precisi è indistinguibile dalle risposte di un essere cosciente, allora essa ha di fatto funzioni similari ad un essere cosciente, ovviamente rispetto a un subsistema di stimoli/risposte.

 

D'altro canto, preso un oggetto che funziona da traduttore ideale, che quindi sostituisce con delle regole frasi in italiano con frasi in un'altra lingua, ad esempio cinese, e che sia sufficientemente raffinato da correggere la sintassi in maniera adeguata, sulla base del test di Turing dovremmo dedurre che tale oggetto parla cinese come qualunque buon traduttore.

 

E' tuttavia chiaro che qualunque test "esterno" si basa, come tu dici, sul modello della black box. Come posso sapere se il vicino di casa è vivo oppure è un androide? se è dotato di anima oppure no? E tu che leggi, in che modo posso determinare se sei vivo realmente oppure no? Qual'è il tuo livello di consapevolezza rispetto al mio?

 

Non lo posso sapere, posso solo operare la generalizzazione "io sono un uomo, io sono autocosciente, tu sei costruito come me e quindi sei un uomo, ne deduco che tu sia autocosciente", cosa che però non è una operazione logicamente corretta, dato che, a parte la problematica di definire esattamente un parametro "autocoscienza" e degli strumenti di quantificazione, la proprietà "coscienza" non è generalmente collegata a una caratteristica biologica umana, è al meno una proprietà "emergente" dal processo evolutivo del pensiero e non è detto che tale proprietà sia emersa per qualunque uomo in generale.

 

Insomma l'è un casino che fuoriesce dai limiti tecnici e diventa pura filosofia con grandi collegamenti con la spiritualità et similia. Se si vuol rimanere nei limiti del pratico, vale l'interpretazione della " IA debole ", per cui l'obiettivo è realizzare oggetti con funzionalità simili ai meccanismi operativi umani: riconoscimento oggetti, sintesi numeriche da data warehouses etc.

Link to comment
Share on other sites

Secondo me no. Solo un essere cosciente riuscirebbe a simulare a meraviglia tutti i comportamenti umani come tu riesci a fare.

 

Scusa, korio, credo che abbiamo postato insieme ^^

Secondo me l'impasse è la mancanza di una definzione di coscienza. Non si può continuare a discutere di coscienza continuando ad affidarsi alla semplice sensazione soggettiva di coscienza, ma è necessario richiamarsi alle caratteristiche che il fatto cosciente ha e che sono analizzabili in termini validi in generale. Per questo io uso l'approccio funzionalista, definisco innanzitutto la coscienza come un flusso di dati empirici, dopodiché cerco i correlati quantitativi/oggettivi di questo flusso di dati.

Edited by FreakyFred
Link to comment
Share on other sites

per quanto riguarda la definizione di coscienza, integrando quello che dice Jung con una spruzzata di Bateson, direi che la coscienza è una auto-rappresentazione del sè ma non semplicemente a livello descrittivo o statico, che mi sembra la principale preoccupazione del test di Turing: è invece la capacità di ampliare il concetto di "io" se interviene un dato nuovo e saper separare io e non - io, ovvero riconoscere dei confini dinamici tra sé e il mondo

questi confini possono essere puramente concettuali ma sono anche fisici, e anzi principalmente fisici almeno al grado zero di coscienza

come tale la coscienza (imho) esiste solo in relazione al corpo e al sentimento, cose che consideriamo irrazionali ma che sono la base stessa della coscienza e che esprimono l'appartenenza o l'estraneità radicale, il "sentirsi parte" o il "sentirsi altro"

dire che la coscienza può essere un pappagallo che ripete risposte apprese ad alcune domande nascosto dietro a una tenda scura trascura secondo me alcune delle sue componenti essenziali e le riduce a un puro gioco linguistico, affascinante ma sterile

 

chi non ha coscienza si deve limitare a "esistere" e non c'è nulla che possa pensare se non nell'azione stessa in cui il pensiero si realizza

ma a quel punto il pensiero si annulla come tale ed esiste solo come azione

ma questa è esattamente la situazione del computer che risponde a tono a 100.000 domande diverse perché così è stato programmato a fare: la sua risposta è pura azione incosciente

c'è una domanda per scoprire la differenza?

non credo se il sistema è ben programmato, ma possiamo dire in coscienza che questo ci basta?

Link to comment
Share on other sites

Ma il problema è che, conrad65, la definizione di coscienza è una definizione soggettiva. E' una mappa di se, e come tale non può essere esportata se non "a chiacchiere", ovvero come risposta a stimoli. E ogni risposta a stimoli può essere simulata. Quindi, conrad65, in che modo puoi verificare che io sia autocosciente e io verificarlo con te? o meglio, come fai a sapere che a scrivere in questo momento è Korio e non una IA ben strutturata per la chat di gay-forum?

 

E' lo stesso problema che si ha con altri quesiti fondamentali: ad esempio, la morte esiste? la morte esiste solo per gli altri ma non per se stessi. Per noi non c'è modo di osservarla, finendo il tempo nel momento in cui essa sopraggiunge. Di fatto, rimanendo nel soggettivo, la morte non esiste, ma esiste un problema di uno stato indeterminato dell'esistenza, una singolarità come tale solo approssimabile. Beh, questo è un signor OT..

Link to comment
Share on other sites

Il separare io e non-io in termini concettuali non è caratteristica della coscienza. E' quello che Chambers chiama "il problema debole" della coscienza, ovvero l'auto-coscienza, contrapposto al problema forte, che è quello dei qualia, ovvero di come sia possibile l'esistenza di un nucleo di percezioni, sensazioni, emozioni e simili.

La mia risposta è che tale nucleo è soltano un agglomerato provvisorio di flussi di dati intersecati. La coscienza non è un omino che ascolta la musica o uno che la suona, quanto la musica stessa.

 

chi non ha coscienza si deve limitare a "esistere" e non c'è nulla che possa pensare se non nell'azione stessa in cui il pensiero si realizza

ma a quel punto il pensiero si annulla come tale ed esiste solo come azione

ma questa è esattamente la situazione del computer che risponde a tono a 100.000 domande diverse perché così è stato programmato a fare: la sua risposta è pura azione incosciente

c'è una domanda per scoprire la differenza?

non credo se il sistema è ben programmato, ma possiamo dire in coscienza che questo ci basta?

Soprassiedo sul problema già evidenziato da me e da altri, e cioè che se si pone il problema della coscienza in questi termini, non ha soluzione, o meglio ha l'unica soluzione che IO sono cosciente, mentre voi non lo siete, perché la coscienza così posta è un dato esclusivamente soggettivo. Si va a finire in una strana forma di solipsismo che non funziona se la si analizza bene, ma che già ad un primo sguardo non convince comunque.

Piuttosto io ad un computer che è in grado di rispondere a tono a qualsiasi mia domanda, e intendo un computer reale, e dunque che non dispone di un set di risposte infinito, è evidentemente dotato delle mie medesime capacità "mentali". Non potrei, in piena onestà intellettuale, pensarla diversamente.

Link to comment
Share on other sites

Su questo tema ci si può anche approcciare con differente "format" scientifico: le proprietà emergenti. In molti casi alcune caratteristiche fisiche di un oggetto emergono all'aumentare della complessità, una sorta di "innesco" per massa critica. Un classico esempio è la materia a livello non subatomico: se prendiamo singolarmente gli atomi, essi sono composti prevalentemente di vuoto; tuttavia se prendiamo moltissime molecole (atomi legati fra di loro), insieme vanno a comporre delle strutture fisiche complesse che hanno delle proprietà che i singoli atomi non posseggono e per cui valgono leggi fisiche differenti. Gli stessi atomi sono proprietà emergenti dei quark etc etc.

 

In questo senso, la coscienza è una proprietà emergente del processo elaborativo di analisi sensoriale del cervello umano. Nell'elaborare molte informazioni e definire contorni ed elementi percepiti, l'informazione di definizione di uno spazio "io" e uno spazio "ambiente" può essere prodotta naturalmente, e così via tutti gli altri elementi della mappa cognitiva personale. In altre parole, a forza di raffinare il processo di analisi del circostante, finiamo per riconoscere una distanza, una discontinuità tra ciò che è percepito e ciò che è "posseduto", tra ciò che viene assorbito passivamente e ciò che invece effettua il processo di analisi ambientale, e quindi un riconoscimento del "io cosciente".

 

Supponiamo di avere un sistema informatico sufficientemente prestante che è elaborato con algoritmi automodificanti stile "algoritmo genetico", reti bayesiane, un buon sistema di sensori per la percezione dell'esterno. Tale algoritmo può elaborare dati ed informazioni in maniera sufficientemente complessa da far emergere il pensiero cosciente.

Link to comment
Share on other sites

Il separare io e non-io in termini concettuali non è caratteristica della coscienza. E' quello che Chambers chiama "il problema debole" della coscienza, ovvero l'auto-coscienza, contrapposto al problema forte, che è quello dei qualia, ovvero di come sia possibile l'esistenza di un nucleo di percezioni, sensazioni, emozioni e simili.

La mia risposta è che tale nucleo è soltano un agglomerato provvisorio di flussi di dati intersecati. La coscienza non è un omino che ascolta la musica o uno che la suona, quanto la musica stessa.

 

a mio avviso, seguendo l'impostazione di Bateson, il flusso di dati intersecati come lo chiami tu o, dandogli un altro nome, l'anello cognitivo che racchiude esterno - interno in un'unica interazione retroazionata, e di cui il cervello è solo un nodo, non è tanto la coscienza ma è in termini cibernetici una "mente"

per la definizione di coscienza l'impostazione che ritengo più promettente (imho) è quella linguistica in senso stretto: la coscienza è fondamentalmente un pensiero-parola, "io", che ha delle proprietà speciali rispetto alle altre perché ad essa possono essere attribuite vaste aree di azione della "mente" stessa

l'io è in sostanza un meta-pensiero, un pensiero sui pensieri, e a sua volta il pensiero è una rappresentazione, una meta-realtà

come tale l'io ha un contenuto fortemente paradossale e ricorsivo e la malattia mentale (tipicamente la schizofrenia) è l'espressione patologica di questa paradossalità

 

Soprassiedo sul problema già evidenziato da me e da altri, e cioè che se si pone il problema della coscienza in questi termini, non ha soluzione

 

secondo me è così, direi che rientra a pieno titolo tra i problemi indecidibili

in mote tradizioni religiose orientali la coscienza è considerata pura illusione, una sorta di errore cognitivo da trascendere, e da un certo punto di vista non si può dare loro "del tutto" torto (ma neanche "del tutto" ragione :hm: )

 

il valore aggiunto della coscienza (intesa come "io") non è nel suo esistere come insieme di pensieri, perché questo è facilmente simulabile da un calcolatore, ma nella sua dinamicità rispetto al continuo flusso sinaptico: in sostanza è la variazione continua del perimetro di coscienza (o dell'io) che rende questo concetto così importante per la nostra stessa sopravvivenza ed integrità e che ci permette addirittura da un certo punto di vista di ritenerla "esistente"

paradossalmente la coscienza è un riflesso del modificarsi della realtà "esterna", dove nell'esterno sono ricompresi i nostri stessi pensieri o sensazioni, sperimentati come accadimenti né più e né meno di una pioggia o di un qualsiasi altro fatto

se vogliamo davvero capire se un calcolatore ha coscienza, e quindi fare un test di Turing significativo, non possiamo fermarci all'interazione linguistica semplice con un interlocutore, ma ampliare l'interfaccia a una pluralità di stimoli, osservare le risposte e il "comportamento" (ammesso che sia definibile), le reazioni ai fatti e osservare se questo crea apprendimento e modifica l'estensione stessa della coscienza (almeno per quanto ce ne può riferire colui che è sotto "esame", l'unico che può (auto)descrivere questi fenomeni)

 

Supponiamo di avere un sistema informatico sufficientemente prestante che è elaborato con algoritmi automodificanti stile "algoritmo genetico", reti bayesiane, un buon sistema di sensori per la percezione dell'esterno. Tale algoritmo può elaborare dati ed informazioni in maniera sufficientemente complessa da far emergere il pensiero cosciente.

 

questo è estremamente probabile, anzi è quasi una certezza, anche se occorre del tutto abbandonare il modello deterministico

o meglio, il determinismo viene meno da solo nel momento in cui la complessità degli stimoli trattati e delle elaborazioni sinaptiche introduce di per sé stessa il grado di casualità necessario alla competizione delle risposte, che secondo me è ciò che innesca l'intelligenza: questa ancora una volta non è "dentro" ma è nell'interazione tra la molteplicità di risposte possibili e il fuori, che fa vincere la risposta più adatta in quel momento

Edited by conrad65
Link to comment
Share on other sites

Io credo di voler abbandonare questo discorso perchè se continuo con questo ragionamento rischio di diventare atea... :look:

Link to comment
Share on other sites

L'intelligenza artificiale e tutto ciò che ci sta attorno è il mio principale ambito di studi/ricerca e mi appassiona molto anche perchè rimane al confine con tante discipline e suscita molte domande esistenziali che bene o male son saltate fuori da questo topic.

 

Il problema è che siamo ancora molto indietro in questo settore e non solo riguardo alle questioni dell'apprendimento o di rappresentazione della conoscenza. Da questo punto di vista abbiamo tanti modelli matematici / statistici che permettono di apprendere sulla base di stimoli di input un comportamento in output, uno di questi come avete detto sono le reti neurali, che però ahimè hanno ancora notevoli limitazioni (ad esempio i parametri vanno ben calibrati rispetto al problema posto, pena un minimo locale al posto di un minimo globale).

 

In ogni caso io credo che l'AI non si riduca solo a trovare dei metodi validi di apprendimento perchè se no con tutti i modelli che abbiamo ora saremmo già a cavallo. Una grossa limitazione deriva dagli strumenti di input e di processamento dell'input che abbiamo (o meglio non abbiamo).

I nostri occhi ad esempio sono molto più precisi e potenti di fotocamere digitali che ad esempio hanno problemi con range dinamici molto alti (luce e controluce), oppure adattamento al buio (sensori molto rumorosi). Questo cosa comporta? Beh che abbiamo degli input inaffidabili, quindi se poi passiamo questi input ai modelli di apprendimento ecco che casca l'asino!

La computer vision / image processing ad esempio cerca di risolvere alcuni problemi sulle immagini digitali, eliminando il rumore, normalizzando i colori ecc... tutto questo per poi riuscire meglio a identificare oggetti, edge ecc...

 

Altro ambito è quello del suono e dell'interpretazione del linguaggio naturale, anche qui una macchina può essere intelligente quanto vuole, ma se non abbiamo ancora dei modelli validi di interpretazione del suono in testo scritto (ora diciamo che su questo ce l'abbiamo abbastanza fatta) e dal testo scritto ad una interpretazione della semantica o meglio ancora della pragmatica... beh manchiamo dell'input fondamentale per poter addestrare la macchina... non so se mi sono spiegato.

 

Insomma, per creare una macchina davvero intelligente occorre che tutte queste discipline si perfezionino a tal punto da avere degli strumenti di acquisizione delle informazioni sufficientemente precisi, in modo che il compito dei modelli di apprendimento sia "semplicemente" quello di mappare stimoli di input in comportamenti di output, che in assenza di rumore è appunto più semplice da fare.

Link to comment
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Unfortunately, your content contains terms that we do not allow. Please edit your content to remove the highlighted words below.
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

×
×
  • Create New...