intelligenza artificiale Archivi - LaVoce https://www.lavoce.it/tag/intelligenza-artificiale/ Settimanale di informazione regionale Thu, 03 Oct 2024 08:37:33 +0000 it-IT hourly 1 https://wordpress.org/?v=6.5.5 https://www.lavoce.it/wp-content/uploads/2018/07/cropped-Ultima-FormellaxSito-32x32.jpg intelligenza artificiale Archivi - LaVoce https://www.lavoce.it/tag/intelligenza-artificiale/ 32 32 Ai killer robot non interessa chi muore https://www.lavoce.it/ai-killer-robot-non-interessa-chi-muore/ https://www.lavoce.it/ai-killer-robot-non-interessa-chi-muore/#respond Thu, 03 Oct 2024 08:37:33 +0000 https://www.lavoce.it/?p=77830

Mentre le Nazioni unite e il “Gruppo degli esperti governativi sulle tecnologie emergenti nel settore dei sistemi di armi autonome letali” continuano a discutere, i Killer robot vengono ampiamente utilizzati nei conflitti in corso. Sono sistemi d’arma che utilizzano gli standard più avanzati dell’intelligenza artificiale per colpire strutture e persone senza il controllo, la verifica e la decisione finale da parte di un essere umano. Ormai da tempo alcune fonti militari israeliane hanno rivelato il largo impiego dei sistemi Lavender e Gospel nella Striscia di Gaza e, si suppone, anche in Libano. Il sistema Lavender utilizza una grande quantità di informazioni che l’intelligence israeliana ha raccolto sui cittadini della Striscia di Gaza nel corso degli anni. Si tratta di dati personali e biometrici raccolti tramite intercettazioni e rilevamenti da droni che riguardano comportamenti (frequentazioni, idee politiche…), modelli di comunicazione, connessioni ai social media e cambi frequenti di indirizzo. A ciascuna/o cittadina/o viene assegnato un punteggio circa la sua potenziale pericolosità. Il sistema Gospel si comporta allo stesso modo riguardo alle strutture e, in particolare, su quella che viene definita la metropolitana di Gaza, la fittissima rete dei cammini sotterranei. Ogni qualvolta che Lavender individua un obiettivo pericoloso, invia un impulso che permette il lancio di un missile o altra arma che uccide la persona individuata senza alcun riguardo per le altre che ne vengono coinvolte. È così che siamo arrivati al numero impressionante di vittime che si contano fino ad oggi in quei contesti di guerra. Serve urgentemente quantomeno una legislazione mondiale per la messa al bando delle armi autonome letali.]]>

Mentre le Nazioni unite e il “Gruppo degli esperti governativi sulle tecnologie emergenti nel settore dei sistemi di armi autonome letali” continuano a discutere, i Killer robot vengono ampiamente utilizzati nei conflitti in corso. Sono sistemi d’arma che utilizzano gli standard più avanzati dell’intelligenza artificiale per colpire strutture e persone senza il controllo, la verifica e la decisione finale da parte di un essere umano. Ormai da tempo alcune fonti militari israeliane hanno rivelato il largo impiego dei sistemi Lavender e Gospel nella Striscia di Gaza e, si suppone, anche in Libano. Il sistema Lavender utilizza una grande quantità di informazioni che l’intelligence israeliana ha raccolto sui cittadini della Striscia di Gaza nel corso degli anni. Si tratta di dati personali e biometrici raccolti tramite intercettazioni e rilevamenti da droni che riguardano comportamenti (frequentazioni, idee politiche…), modelli di comunicazione, connessioni ai social media e cambi frequenti di indirizzo. A ciascuna/o cittadina/o viene assegnato un punteggio circa la sua potenziale pericolosità. Il sistema Gospel si comporta allo stesso modo riguardo alle strutture e, in particolare, su quella che viene definita la metropolitana di Gaza, la fittissima rete dei cammini sotterranei. Ogni qualvolta che Lavender individua un obiettivo pericoloso, invia un impulso che permette il lancio di un missile o altra arma che uccide la persona individuata senza alcun riguardo per le altre che ne vengono coinvolte. È così che siamo arrivati al numero impressionante di vittime che si contano fino ad oggi in quei contesti di guerra. Serve urgentemente quantomeno una legislazione mondiale per la messa al bando delle armi autonome letali.]]>
https://www.lavoce.it/ai-killer-robot-non-interessa-chi-muore/feed/ 0
Intelligenza artificiale. Anche l’“algoritmo” è frutto di una cultura https://www.lavoce.it/intelligenza-artificiale-anche-lalgoritmo-e-frutto-di-una-cultura/ https://www.lavoce.it/intelligenza-artificiale-anche-lalgoritmo-e-frutto-di-una-cultura/#respond Fri, 17 May 2024 19:25:56 +0000 https://www.lavoce.it/?p=76231

Pubblichiamo ampi passaggi dell’intervento di don Alessandro Picchiarelli, ingegnere informatico e teologo morale, intervenuto all’incontro sulla intelligenza artificiale che si è tenuto l'11 maggio a Perugia in occasione della Giornata mondiale della comunicazioni sociali (12 maggio)

Nel suo messaggio per la Giornata mondiale delle comunicazioni sociali, papa Francesco inquadra la realtà dell’intelligenza artificiale mettendo in luce le potenzialità e le zone d’ombra ad essa associata.

Neutralità e cultura algoritmica

In modo particolare sono due gli ambiti rispetto ai quali l’attenzione del Papa si sofferma maggiormente. Tali ambiti hanno delle ricadute notevoli in tutti gli aspetti della nostra vita ma in modo particolare nel contesto della comunicazione e dell’informazione. Questi due aspetti, strettamente connessi alle caratteristiche e alle proprietà dell’intelligenza artificiale, vengono normalmente definiti il mito della neutralità algoritmica e la cultura algoritmica. Vediamo brevemente cosa essi sono per arrivare poi a porci domande etiche significative per il nostro tempo. I sistemi algoritmici e di intelligenza artificiale stanno trasformando il mondo nel quale l’uomo vive e stanno cambiando l’uomo stesso e il suo modo di relazionarsi con gli altri esseri umani e con l’ambiente circostante. Come prodotti storici e culturali, essi riflettono ciò che i programmatori pensano e riconoscono come significativo. Tuttavia queste considerazioni non sono pacificamente accolte da tutti e l’idea che gli algoritmi informatici siano soltanto meri strumenti nelle mani dell’uomo è ancora molto forte. Questo pensiero ha radici molto profonde.

Raimondo Lullo e l'arte combinatoria

Già nel quattordicesimo secolo Raimondo Lullo era convinto di poter risolvere qualunque problema attraverso la matematica, in quanto ogni proposizione può essere ridotta a termini complessi e i termini complessi in più termini semplici o principi. Combinando questi termini semplici in tutti i modi possibili si otterranno così tutte le proposizioni vere pensabili: questa è l’arte combinatoria che fonda le basi del calcolo computazionale.

Lo sviluppo dell'informatica

Con il veloce sviluppo dell’informatica e dei computer, alcuni iniziarono così ad affermare che il metodo scientifico era ormai obsoleto e che l’elaborazione dei dati e l’uso degli algoritmi e delle correlazioni avrebbe garantito una maggiore qualità delle decisioni e una neutralità che l’uomo non poteva garantire. Verso gli anni ’80 del secolo scorso, iniziò tuttavia ad aumentare l’interesse per la disciplina delle scienze tecnologiche e questo permise di rendersi conto che la tecnologia non è un semplice strumento nelle mani dell’uomo ma è il prodotto di fattori sociali, economici e politici, oltre che dello sviluppo della tecnica. In questo senso diventa allora possibile affermare che anche "gli algoritmi sono costruzioni sociali che riflettono interessi, discorsi di verità, assunti arbitrari sul mondo sociale".

Tre evidenze

Si sono potute così mostrare tre evidenze che i sostenitori della neutralità algoritmica negavano. La prima evidenza riguarda il fatto che in fase di progettazione, e anche in quella di addestramento per gli algoritmi più evoluti, l’algoritmo risente di alcune distorsioni che non permettono all’output di garantire una totale oggettività. Infatti, lo scienziato – data scientist – ipotizza che un dataset di apprendimento ed un’eventuale classificazione manuale costituiscano un input adeguato a rappresentare fedelmente il fenomeno analizzato. La presunta oggettività del calcolo è, perciò, finzionale. Il funzionamento dei sistemi algoritmici, anche nel caso del machine learning e dell’intelligenza artificiale, non è mai totalmente indipendente da scelte umane, errori, e distorsioni culturalmente indotte. La seconda evidenza è che non necessariamente l’automatizzazione di un processo lo rende neutro. Infatti, l’automatizzazione è sempre il prodotto di idee e scelte determinate dall’uomo. Ne deriva che non c’è niente di inerentemente neutro in un algoritmo. Al contrario, un algoritmo è ciò che implementa visioni, idee, credenze e che soddisfa bisogni e desideri. Infine la terza evidenza è che, per quanto possano essere accurati, i risultati degli algoritmi alterano la realtà attraverso dinamiche che sono socialmente, storicamente e politicamente note.

Come affrontare le sfide

Tutto ciò rende urgente un’educazione capace di affrontare queste sfide sfruttando anche le opportunità offerte e riconoscendo che i prodotti della tecnica non sono neutri, perché creano una trama che finisce per condizionare gli stili di vita e orientano le possibilità sociali nella direzione degli interessi di determinati gruppi di potere. Certe scelte che sembrano puramente strumentali, in realtà sono scelte attinenti al tipo di vita sociale che si intende sviluppare.

La neutralità dell'algoritmo non è facilmente sostenibile

Eticamente questo discorso è interessante perché dimostra che il discorso sulla neutralità e sulla semplice strumentalità dei dati e degli algoritmi non è facilmente sostenibile. Ogni dato e ogni algoritmo riflettono una cultura, un contesto sociale, una storia e generano una cultura, un contesto sociale e una storia: i dati e gli algoritmi non solo predicono qualcosa ma favoriscono un comportamento che l’uomo assumerà nella sua vita. Ed è qui che entriamo nel merito del secondo aspetto. Come più volte affermato, oggi non c’è praticamente nessun ambito della vita umana in cui gli algoritmi informatici non intervengano o che comunque non sia digitalmente mediato. Tutto ciò ha un grande impatto anche nella cultura tanto che alcuni studiosi hanno iniziato a parlare di “cultura algoritmica. Se gli algoritmi di Facebook o Google filtrano i risultati prodotti in base alle ricerche che ogni utente ha effettuato, questo significa che chiunque utilizzi uno di questi strumenti avrà un risultato che è sempre legato alle esperienze che ha già vissuto o alle esperienze simili che altri utenti hanno avuto. Tutto ciò influenza notevolmente il comportamento di ogni utente che vivrà un’esperienza sempre più orientata dall’algoritmo stesso. In questo senso gli algoritmi sono produttori di cultura, in quanto vanno a modificare il modo attraverso cui l’uomo comprende la realtà e a veicolare alcuni contenuti rispetto ad altri.

L'inconscio tecnologico

Questo fenomeno è talmente forte, e al tempo stesso invisibile, che si parla di “inconscio tecnologico” per dire che gli algoritmi non solo mediano ciò che sappiamo e comprendiamo, ma vanno a creare la realtà stessa riducendo il confine tra ciò che è reale e ciò che è virtuale, tra la vita online e quella offline: la cultura intesa in senso antropologico si trasforma sempre più in uno stimolo prodotto dall’elaborazione algoritmica di una serie di dati. Questa situazione se da una parte può destare preoccupazione, dall’altra rappresenta una nuova sfida per gli esseri umani che di fronte a tutta questa nuova forma di conoscenza devono possedere o sviluppare una maggiore capacità di interpretare, per poter filtrare le informazioni, per poterle analizzare criticamente. Alessandro Picchiarelli
 
]]>

Pubblichiamo ampi passaggi dell’intervento di don Alessandro Picchiarelli, ingegnere informatico e teologo morale, intervenuto all’incontro sulla intelligenza artificiale che si è tenuto l'11 maggio a Perugia in occasione della Giornata mondiale della comunicazioni sociali (12 maggio)

Nel suo messaggio per la Giornata mondiale delle comunicazioni sociali, papa Francesco inquadra la realtà dell’intelligenza artificiale mettendo in luce le potenzialità e le zone d’ombra ad essa associata.

Neutralità e cultura algoritmica

In modo particolare sono due gli ambiti rispetto ai quali l’attenzione del Papa si sofferma maggiormente. Tali ambiti hanno delle ricadute notevoli in tutti gli aspetti della nostra vita ma in modo particolare nel contesto della comunicazione e dell’informazione. Questi due aspetti, strettamente connessi alle caratteristiche e alle proprietà dell’intelligenza artificiale, vengono normalmente definiti il mito della neutralità algoritmica e la cultura algoritmica. Vediamo brevemente cosa essi sono per arrivare poi a porci domande etiche significative per il nostro tempo. I sistemi algoritmici e di intelligenza artificiale stanno trasformando il mondo nel quale l’uomo vive e stanno cambiando l’uomo stesso e il suo modo di relazionarsi con gli altri esseri umani e con l’ambiente circostante. Come prodotti storici e culturali, essi riflettono ciò che i programmatori pensano e riconoscono come significativo. Tuttavia queste considerazioni non sono pacificamente accolte da tutti e l’idea che gli algoritmi informatici siano soltanto meri strumenti nelle mani dell’uomo è ancora molto forte. Questo pensiero ha radici molto profonde.

Raimondo Lullo e l'arte combinatoria

Già nel quattordicesimo secolo Raimondo Lullo era convinto di poter risolvere qualunque problema attraverso la matematica, in quanto ogni proposizione può essere ridotta a termini complessi e i termini complessi in più termini semplici o principi. Combinando questi termini semplici in tutti i modi possibili si otterranno così tutte le proposizioni vere pensabili: questa è l’arte combinatoria che fonda le basi del calcolo computazionale.

Lo sviluppo dell'informatica

Con il veloce sviluppo dell’informatica e dei computer, alcuni iniziarono così ad affermare che il metodo scientifico era ormai obsoleto e che l’elaborazione dei dati e l’uso degli algoritmi e delle correlazioni avrebbe garantito una maggiore qualità delle decisioni e una neutralità che l’uomo non poteva garantire. Verso gli anni ’80 del secolo scorso, iniziò tuttavia ad aumentare l’interesse per la disciplina delle scienze tecnologiche e questo permise di rendersi conto che la tecnologia non è un semplice strumento nelle mani dell’uomo ma è il prodotto di fattori sociali, economici e politici, oltre che dello sviluppo della tecnica. In questo senso diventa allora possibile affermare che anche "gli algoritmi sono costruzioni sociali che riflettono interessi, discorsi di verità, assunti arbitrari sul mondo sociale".

Tre evidenze

Si sono potute così mostrare tre evidenze che i sostenitori della neutralità algoritmica negavano. La prima evidenza riguarda il fatto che in fase di progettazione, e anche in quella di addestramento per gli algoritmi più evoluti, l’algoritmo risente di alcune distorsioni che non permettono all’output di garantire una totale oggettività. Infatti, lo scienziato – data scientist – ipotizza che un dataset di apprendimento ed un’eventuale classificazione manuale costituiscano un input adeguato a rappresentare fedelmente il fenomeno analizzato. La presunta oggettività del calcolo è, perciò, finzionale. Il funzionamento dei sistemi algoritmici, anche nel caso del machine learning e dell’intelligenza artificiale, non è mai totalmente indipendente da scelte umane, errori, e distorsioni culturalmente indotte. La seconda evidenza è che non necessariamente l’automatizzazione di un processo lo rende neutro. Infatti, l’automatizzazione è sempre il prodotto di idee e scelte determinate dall’uomo. Ne deriva che non c’è niente di inerentemente neutro in un algoritmo. Al contrario, un algoritmo è ciò che implementa visioni, idee, credenze e che soddisfa bisogni e desideri. Infine la terza evidenza è che, per quanto possano essere accurati, i risultati degli algoritmi alterano la realtà attraverso dinamiche che sono socialmente, storicamente e politicamente note.

Come affrontare le sfide

Tutto ciò rende urgente un’educazione capace di affrontare queste sfide sfruttando anche le opportunità offerte e riconoscendo che i prodotti della tecnica non sono neutri, perché creano una trama che finisce per condizionare gli stili di vita e orientano le possibilità sociali nella direzione degli interessi di determinati gruppi di potere. Certe scelte che sembrano puramente strumentali, in realtà sono scelte attinenti al tipo di vita sociale che si intende sviluppare.

La neutralità dell'algoritmo non è facilmente sostenibile

Eticamente questo discorso è interessante perché dimostra che il discorso sulla neutralità e sulla semplice strumentalità dei dati e degli algoritmi non è facilmente sostenibile. Ogni dato e ogni algoritmo riflettono una cultura, un contesto sociale, una storia e generano una cultura, un contesto sociale e una storia: i dati e gli algoritmi non solo predicono qualcosa ma favoriscono un comportamento che l’uomo assumerà nella sua vita. Ed è qui che entriamo nel merito del secondo aspetto. Come più volte affermato, oggi non c’è praticamente nessun ambito della vita umana in cui gli algoritmi informatici non intervengano o che comunque non sia digitalmente mediato. Tutto ciò ha un grande impatto anche nella cultura tanto che alcuni studiosi hanno iniziato a parlare di “cultura algoritmica. Se gli algoritmi di Facebook o Google filtrano i risultati prodotti in base alle ricerche che ogni utente ha effettuato, questo significa che chiunque utilizzi uno di questi strumenti avrà un risultato che è sempre legato alle esperienze che ha già vissuto o alle esperienze simili che altri utenti hanno avuto. Tutto ciò influenza notevolmente il comportamento di ogni utente che vivrà un’esperienza sempre più orientata dall’algoritmo stesso. In questo senso gli algoritmi sono produttori di cultura, in quanto vanno a modificare il modo attraverso cui l’uomo comprende la realtà e a veicolare alcuni contenuti rispetto ad altri.

L'inconscio tecnologico

Questo fenomeno è talmente forte, e al tempo stesso invisibile, che si parla di “inconscio tecnologico” per dire che gli algoritmi non solo mediano ciò che sappiamo e comprendiamo, ma vanno a creare la realtà stessa riducendo il confine tra ciò che è reale e ciò che è virtuale, tra la vita online e quella offline: la cultura intesa in senso antropologico si trasforma sempre più in uno stimolo prodotto dall’elaborazione algoritmica di una serie di dati. Questa situazione se da una parte può destare preoccupazione, dall’altra rappresenta una nuova sfida per gli esseri umani che di fronte a tutta questa nuova forma di conoscenza devono possedere o sviluppare una maggiore capacità di interpretare, per poter filtrare le informazioni, per poterle analizzare criticamente. Alessandro Picchiarelli
 
]]>
https://www.lavoce.it/intelligenza-artificiale-anche-lalgoritmo-e-frutto-di-una-cultura/feed/ 0
Giornata delle comunicazioni sociali: l’intelligenza artificiale al centro dell’incontro di Ucsi Umbria https://www.lavoce.it/intelligenza-artificiale-centro-dincontro-ucsi-umbria-giornata-comunicazioni-sociali/ https://www.lavoce.it/intelligenza-artificiale-centro-dincontro-ucsi-umbria-giornata-comunicazioni-sociali/#respond Mon, 13 May 2024 11:36:59 +0000 https://www.lavoce.it/?p=76123

Fedele al tema scelto dal Papa per la 58’ giornata mondiale delle comunicazioni sociali, l’Ucsi Umbria (era presente la presidente Manuela Acito) ha organizzato un incontro, insieme con l’Ufficio diocesano per le comunicazioni sociali dell’arcidiocesi di Perugia - Città della Pieve e l'Ordine dei Giornalisti dell’Umbria, per riflettere su "Le frontiere dell’intelligenza artificiale: opportunità, rischi, risvolti deontologici ed etici" nell'informazione. L’incontro, moderato dalla direttrice dell’Ufficio comunicazioni sociali dell’arcidiocesi di Perugia Maria Rita Valli, è stato aperto dal saluto del vicario generale mons. Simone Sorbaioli e ha visto la partecipazione di Stefano Bistarelli, professore di Informatica presso il Dipartimento di Matematica e informatica dell’Università di Perugia, di Michele Partipilo, giornalista ed esperto di diritto dell’informazione e deontologia professionale, e di don Alessandro Picchiarelli, sacerdote della diocesi di Assisi - Nocera Umbra - Gualdo Tadino, laureato in Ingegneria informatica e delle telecomunicazioni, teologo morale e docente alla Pontificia università Urbaniana. Ad introdurre l'incontro la relazione del prof. Bistarelli, che ha condotto i presenti in un viaggio nell’intelligenza artificiale tra fantascienza e applicazioni, con riferimenti anche all'uso di ChatGpt nella creazione dei testi. Partipilo ha invece affronato l’importante questione della deontologia per un’informazione dalla parte dell’uomo, con riferimenti al messaggio del Papa per la Giornata mondiale delle comunicazioni sociali dal titolo: "Intelligenza artificiale e sapienza del cuore: per una comunicazione pienamente umana". Richiamando i rischi e le opportunità che l’intelligenza artificiale rappresenta per la professione giornalistica in termini di etica e rispetto della verità dei fatti, Partipilo ha sottolineato come la figura del giornalista rimanga indispensabile per mantenere salda la deontologia nel campo dell’informazione, pur in presenza di un apporto sempre crescente e non necessariamente negativo da parte dell’intelligenza artificiale. Don Picchiarelli ha sfatato il mito della neutralità algoritmica, presentando la cultura algoritmica e le domande etiche che essa pone al nostro tempo. Anche qui con puntuali riferimenti al messaggio del Pontefice. Molti sono stati i colleghi, presenti nella Sala del Dottorato del complesso della cattedrale di Perugia o connessi online, a partecipare all’incontro, che si è distinto per l’interesse della tematica in relazione alla professione giornalistica e per la grande competenza e chiarezza dei relatori. [gallery td_select_gallery_slide="slide" ids="76137,76140,76252"]]]>

Fedele al tema scelto dal Papa per la 58’ giornata mondiale delle comunicazioni sociali, l’Ucsi Umbria (era presente la presidente Manuela Acito) ha organizzato un incontro, insieme con l’Ufficio diocesano per le comunicazioni sociali dell’arcidiocesi di Perugia - Città della Pieve e l'Ordine dei Giornalisti dell’Umbria, per riflettere su "Le frontiere dell’intelligenza artificiale: opportunità, rischi, risvolti deontologici ed etici" nell'informazione. L’incontro, moderato dalla direttrice dell’Ufficio comunicazioni sociali dell’arcidiocesi di Perugia Maria Rita Valli, è stato aperto dal saluto del vicario generale mons. Simone Sorbaioli e ha visto la partecipazione di Stefano Bistarelli, professore di Informatica presso il Dipartimento di Matematica e informatica dell’Università di Perugia, di Michele Partipilo, giornalista ed esperto di diritto dell’informazione e deontologia professionale, e di don Alessandro Picchiarelli, sacerdote della diocesi di Assisi - Nocera Umbra - Gualdo Tadino, laureato in Ingegneria informatica e delle telecomunicazioni, teologo morale e docente alla Pontificia università Urbaniana. Ad introdurre l'incontro la relazione del prof. Bistarelli, che ha condotto i presenti in un viaggio nell’intelligenza artificiale tra fantascienza e applicazioni, con riferimenti anche all'uso di ChatGpt nella creazione dei testi. Partipilo ha invece affronato l’importante questione della deontologia per un’informazione dalla parte dell’uomo, con riferimenti al messaggio del Papa per la Giornata mondiale delle comunicazioni sociali dal titolo: "Intelligenza artificiale e sapienza del cuore: per una comunicazione pienamente umana". Richiamando i rischi e le opportunità che l’intelligenza artificiale rappresenta per la professione giornalistica in termini di etica e rispetto della verità dei fatti, Partipilo ha sottolineato come la figura del giornalista rimanga indispensabile per mantenere salda la deontologia nel campo dell’informazione, pur in presenza di un apporto sempre crescente e non necessariamente negativo da parte dell’intelligenza artificiale. Don Picchiarelli ha sfatato il mito della neutralità algoritmica, presentando la cultura algoritmica e le domande etiche che essa pone al nostro tempo. Anche qui con puntuali riferimenti al messaggio del Pontefice. Molti sono stati i colleghi, presenti nella Sala del Dottorato del complesso della cattedrale di Perugia o connessi online, a partecipare all’incontro, che si è distinto per l’interesse della tematica in relazione alla professione giornalistica e per la grande competenza e chiarezza dei relatori. [gallery td_select_gallery_slide="slide" ids="76137,76140,76252"]]]>
https://www.lavoce.it/intelligenza-artificiale-centro-dincontro-ucsi-umbria-giornata-comunicazioni-sociali/feed/ 0