Intelligenza Artificiale

0 readers
1 users here now

L'intelligenza artificiale è una delle rivoluzioni digitali più dirompenti degli ultimi anni. Questa è la comunità in cui parlarne.

Regole

👉 Il rispetto reciproco è fondamentale per creare un luogo di confronto sereno e piacevole.

👉 No fake news, pubblicità, link di affiliazione e paywall.

👉 Nessuna forma di discriminazione sarà tollerata.

👉 In aggiunta a queste regole, agite sempre in concordanza con la guida all’utilizzo di Feddit.

founded 1 year ago
1
 
 

L'intelligenza artificiale (AI) sta trasformando le forze dell'ordine in tutto il mondo. L'innovazione responsabile dell'AI aiuta le forze dell'ordine a sfruttare il potenziale dell'AI, salvaguardando al contempo la legge, l'etica e i principi di polizia in materia di diritti umani.
Il Toolkit per l'innovazione responsabile dell'AI nelle forze dell'ordine, di cui parleremo nella II^ Parte, supporta la comunità globale delle forze dell'ordine nel suo percorso verso un'innovazione responsabile dell'AI. Sviluppato da INTERPOL e UNICRI (l'Istituto interregionale delle Nazioni Unite per la ricerca sul crimine e la giustizia) con il sostegno finanziario dell'Unione Europea, il kit di strumenti per l'AI include varie risorse che forniscono una guida completa per consentire alle agenzie di implementare l'innovazione responsabile dell'AI.
Comprendere le basi dell'innovazione dell'AI nelle forze dell'ordine
Nell'AI Toolkit, il termine "innovazione dell'AI" è utilizzato per riferirsi all'ampia gamma di attività che le autorità di contrasto alla criminalità intraprendono nell'implementazione dei sistemi di AI nel loro lavoro. Ciò include tutte le fasi del ciclo di vita dell'AI, dalla pianificazione all'implementazione, all'uso e al monitoraggio e qualsiasi altra cosa possa comportare.
Per sfruttare appieno i vantaggi dell'innovazione dell'AI, le autorità di contrasto hanno bisogno di definizioni comuni dei termini chiave e di una comprensione di concetti di base come l'AI e i sistemi di AI e di come possono essere applicati nel loro contesto.
I sistemi di intelligenza artificiale vengono implementati nelle forze dell'ordine per una varietà di scopi.
Questi sistemi altamente versatili possono essere infatti applicati in diversi campi per raggiungere un'ampia gamma di obiettivi. Con il rapido sviluppo dell'intelligenza artificiale, gli algoritmi stanno diventando sempre più specializzati e sempre più in grado di elaborare diversi tipi di dati e produrre tipi specifici di output. Questa rapida evoluzione può essere vista anche nel contesto delle forze dell'ordine. L'uso dell'AI nelle forze dell'ordine è in continuo aumento e le autorità di contrasto stanno facendo buon uso dei nuovi tipi di sistemi e strumenti di AI che vengono sviluppati regolarmente. Ciononostante, è possibile classificare le applicazioni più comuni dei sistemi di AI nelle forze dell'ordine in base al loro scopo principale. Attualmente, i sistemi di intelligenza artificiale sono più frequentemente applicati nelle forze dell'ordine per:

Immagine/foto

La necessità di un'innovazione responsabile dell'AI nelle forze dell'ordine
I sistemi di intelligenza artificiale, e in particolare quelli con algoritmi di apprendimento automatico, sono molto bravi ad analizzare rapidamente grandi quantità di informazioni che hanno origini e formati diversi. Possono essere progettati per eseguire un'ampia gamma di attività in base alle informazioni raccolte attraverso tale processo. L'applicazione di queste funzionalità alle forze dell'ordine può avere immensi vantaggi, alcuni dei quali sono elencati di seguito. I sistemi di intelligenza artificiale possono:
• migliorare l’analisi dei dati relativi alla criminalità e l’individuazione, la prevenzione e l’investigazione dei reati.
• svolgere compiti specifici ripetitivi e banali molto più velocemente di quanto potrebbe mai fare qualsiasi ufficiale. Ciò lascia agli agenti più tempo per concentrarsi su altri compiti.
• aiutare a salvaguardare il benessere delle forze dell’ordine riducendo la loro esposizione a materiale impegnativo come quello relativo agli abusi sessuali sui minori.
Sebbene il loro potenziale sia innegabile, i sistemi di intelligenza artificiale hanno dei limiti e possono avere conseguenze negative. Come con qualsiasi tecnologia, i sistemi di intelligenza artificiale non sono intrinsecamente "buoni" o "cattivi". Un'auto, ad esempio, può essere utilizzata per il trasporto o il rapimento: è l'essere umano al volante che rende l'uso dell'auto buono o cattivo. Un'auto può anche essere mal progettata, malfunzionante e priva di dispositivi di sicurezza. Un'auto del genere, anche se viene utilizzata con le migliori intenzioni, può causare danni a causa del modo in cui è progettata. Lo stesso vale per i sistemi di intelligenza artificiale. Proprio come le automobili, è il modo in cui noi, come esseri umani, progettiamo e utilizziamo i sistemi di intelligenza artificiale che determina se il risultato sarà benefico o dannoso. Per massimizzare i benefici e ridurre al minimo i rischi associati ai sistemi di AI, le forze dell'ordine devono adottare un approccio responsabile all'innovazione dell'AI.
L'innovazione responsabile dell'AI consiste nell'integrare i sistemi di AI nel lavoro delle autorità di contrasto in modi che siano in linea con i principi di polizia e che siano eticamente corretti.
Si tratta di un processo continuo che richiede la comprensione dei limiti e dei rischi dei sistemi di AI e l'attuazione di misure per evitare o mitigare sufficientemente le conseguenze negative che possono derivare dalla loro attuazione. Soprattutto, questo processo non dovrebbe essere motivo di preoccupazione per le forze dell'ordine o per il personale che cerca di integrare il sistema di intelligenza artificiale nel proprio lavoro. Al contrario, la comprensione dei limiti e dei rischi dei sistemi di intelligenza artificiale consente agli individui e alle organizzazioni di andare avanti con fiducia. Tale sicurezza di sé è essenziale per controbilanciare la tendenza delle persone a fare troppo affidamento sui risultati di sistemi automatizzati come i sistemi di intelligenza artificiale, nota anche come “bias di automazione”. Un approccio responsabile all'innovazione dell'IA è fondamentale durante l'intero ciclo di vita dell'AI e in tutti i contesti in cui le autorità di contrasto interagiscono con l'AI. Vi è una necessità trasversale di un'innovazione responsabile dell'AI nelle autorità di contrasto, in primo luogo a causa di alcune caratteristiche dei sistemi di AI che richiedono maggiore attenzione e dovuta diligenza in quanto possono creare o esacerbare impatti negativi gravi o irreversibili sugli individui, sulla società e sull'ambiente se non sono comprese e affrontate in modo appropriato. e nel rispetto dei diritti umani.
L'innovazione responsabile dell'IA è un processo continuo, non un obiettivo prefissato. Portare avanti l'innovazione dell'AI in modo responsabile significa aderire ai principi di una buona polizia, seguire e implementare l'etica dell'AI e rispettare la legge sui diritti umani, il tutto con l'obiettivo di massimizzare i benefici e ridurre al minimo i danni derivanti dall'integrazione dei sistemi di AI nelle forze dell'ordine. Richiede il coinvolgimento e l'impegno di tutte le parti interessate, nonché conoscenze, strutture, procedure e misure organizzative e tecniche adeguate per garantire il rispetto degli standard più elevati in materia di buona governance, due diligence e responsabilità. L'AI Toolkit include diverse risorse che mirano a guidare le forze dell'ordine in questo processo. I principi per un'innovazione responsabile dell'AI sono la pietra angolare di questa guida.
A causa delle caratteristiche dei sistemi di AI e delle particolarità del contesto di applicazione della legge, in ogni fase del ciclo di vita dell'AI sorgono questioni etiche e relative ai diritti umani diverse e complesse, indipendentemente dalla misura in cui una specifica agenzia è coinvolta nei sistemi di AI. I principi per l'innovazione responsabile dell'AI forniscono alle forze dell'ordine un quadro che può essere utilizzato per affrontare questi problemi.
Più specificamente, questi principi aiutano le autorità di contrasto – e i portatori di interessi secondari come gli sviluppatori esterni – a garantire che le preoccupazioni etiche e il potenziale impatto negativo sui diritti umani derivanti dai sistemi di AI siano identificati ed eliminati o sufficientemente mitigati in una fase precoce. A tal fine, stabiliscono cinque principi fondamentali in base ai quali le agenzie possono guidare e valutare le loro azioni: legalità, minimizzazione del danno, autonomia umana, equità e buon governo.
La legge sui diritti umani impone alle forze dell'ordine, agli agenti e ad altro personale l'obbligo di proteggere e rispettare i diritti umani degli individui e di astenersi dal violare i diritti umani in tutte le loro attività. Sebbene l'obbligo di perseguire la propria missione in modo conforme ai diritti umani non sia una novità nell'applicazione della legge, l'introduzione di sistemi di intelligenza artificiale aggiunge un livello di rischio che rende ancora più importante attenersi alla legge.
Infatti, le caratteristiche dei sistemi di AI nel contesto delle attività di polizia, come spiegato in precedenza, spesso portano a un'interferenza con i diritti umani. Questo è il motivo per cui è fondamentale integrare le considerazioni relative ai diritti umani nell'uso dei sistemi di AI da parte delle forze dell'ordine.
La legge sui diritti umani può adattarsi alle caratteristiche e alle necessità del contesto delle forze dell'ordine. In determinate circostanze e con il dovuto riguardo per una serie di garanzie essenziali, la legge consente alle agenzie o ai funzionari all'interno di tali agenzie di agire in un modo che interferisce con alcuni di questi diritti umani. Ciò avviene per finalità legittime, quali il rispetto della sicurezza nazionale, dell'ordine pubblico e della sicurezza attraverso l'indagine e la prevenzione di reati o altri compiti di contrasto necessari e proporzionati, al fine di evitare gravi danni.
Cosa sono i diritti umani? I diritti umani e le libertà sono diritti individuali conferiti a tutti, indipendentemente dal loro background. Esse non sono concesse dagli Stati o dalle leggi nazionali, ma derivano invece dalla dignità intrinseca di ogni persona. In altre parole, tutti gli individui hanno diritti e libertà semplicemente perché sono esseri umani. I diritti umani sono caratterizzati come: Universale, nel senso che tutti ne hanno lo stesso diritto, indipendentemente dalla nazionalità, dal sesso, dall'età, dall'origine nazionale o etnica, dal colore, dalla religione, dalla lingua o da qualsiasi altro status. Inalienabile, il che significa che il loro godimento non dovrebbe mai essere precluso se non in circostanze eccezionali e giustificate e seguendo un giusto processo. Indivisibile e interdipendente, il che significa che ogni diritto può essere pienamente goduto solo se sono garantiti anche i diritti rimanenti.
Esistono diversi tipi di diritti umani, ma tutti sono ugualmente importanti. La legge sui diritti umani impone alle forze dell'ordine, agli agenti e ad altro personale l'obbligo di proteggere e rispettare i diritti umani degli individui e di astenersi dal violare i diritti umani in tutte le loro attività. Sebbene l'obbligo di perseguire la propria missione in modo conforme ai diritti umani non sia una novità nell'applicazione della legge, l'introduzione di sistemi di intelligenza artificiale aggiunge un livello di rischio che rende ancora più importante attenersi alla legge.
@aitech
#INTERPOL #UNICRI #AI #ARTIFICIALINTELLIGENCE

2
3
 
 

Le aziende stanno facendo AI-washing? Il fondatore di Rippling, Parker Conrad, pensa che sia spesso così

"Ci sono un sacco di cose davvero inconsistenti nel mondo dell'IA", ha detto Conrad, aggiungendo che "non si può dire che l'IA non sarà trasformativa. Ci sono un sacco di capacità che sono davvero importanti. È solo che non sono rimasto impressionato da molte di quelle che ho visto"

@aitech

https://techcrunch.com/2024/08/20/is-your-company-ai-washing-rippling-founder-parker-conrad-thinks-it-might-be/

4
5
 
 

X ha ricevuto nove reclami per la protezione dei dati ed ha annunciato che sospenderà in parte l’addestramento dell’IA

L'articolo proviene da #Euractiv Italia ed è stato ricondiviso sulla comunità Lemmy @aitech
Lunedì 12 agosto, X (ex Twitter) ha ricevuto nove reclami in materia di protezione dei

6
 
 

I chatbot basati sull’intelligenza artificiale non sono facilissimi da promuovere

#UnoTech

@aitech

https://www.ilpost.it/2024/08/08/spot-pubblicita-chatbot-google-meta/

7
 
 

Le industrie del settore tecnologico chiedono a Bruxelles di prorogare il termine per contribuire all’AI Code of Practice

L'articolo proviene da #Euractiv Italia ed è stato ricondiviso sulla comunità Lemmy @aitech
Un gruppo di 11 associazioni industriali del settore Hi-Tech ha chiesto alla

8
 
 

La Commissione europea va avanti con il progetto per creazione di “Fabbriche di intelligenza artificiale”

L'articolo proviene da #Euractiv Italia ed è stato ricondiviso sulla comunità Lemmy @aitech
La Commissione europea ha iniziato a portare avanti gli sforzi per agevolare la creazione di centri dati per

9
 
 

UE: entra in vigore la legislazione europea sull’intelligenza artificiale

L'articolo proviene da #Euractiv Italia ed è stato ricondiviso sulla comunità Lemmy @aitech
È entrata ufficialmente in vigore giovedì (primo agosto) il regolamento europeo sull’intelligenza artificiale (IA), il primo atto legislativo comprensivo sull’intelligenza

10
 
 

Le difficoltà dell’intelligenza artificiale con la matematica sono peraltro utili a capire meglio in cosa sia differente dall’informatica, e per quali scopi sia stata pensata e sviluppata fin dall’inizio. I sistemi di intelligenza possono fare calcoli sulla base dei dati utilizzati per addestrarli, in sostanza, e sono ottimizzati per determinare le probabilità di un certo output a partire da determinati input. I risultati possono variare, come nel linguaggio umano, ma questo significa che possono anche essere sbagliati, se la richiesta è eseguire calcoli basati non su probabilità ma su regole precise e procedure logiche.

11
 
 

Forwarded from Feddit

Un nuovo strumento per i titolari di copyright può mostrare se il loro lavoro è nei dati di addestramento dell'intelligenza artificiale
feddit.it/post/9617708

Il nuovo post di informapirata è su feddit.it/c/aitech

Un nuovo strumento per i titolari di copyright può mostrare se il loro lavoro è nei dati di addestramento dell’intelligenza artificiale

Le trappole del copyright sono state utilizzate nel corso della storia, ma ora potrebbero rivelarsi uno strumento in una delle più grandi battaglie nell’ambito dell’intelligenza artificiale.

technologyreview.com/2024/07/2…

feddit.it/post/9617708
Un nuovo strumento per i titolari di copyright può mostrare se il loro lavoro è nei dati di addestramento dell'intelligenza artificiale… - feddit.it
Un nuovo strumento per i titolari di copyright può mostrare se il loro lavoro è nei dati di addestramento dell’intelligenza artificiale Le trappole del copyright sono state utilizzate nel corso della storia, ma ora potrebbero rivelarsi uno strumento in una…


t.me/ppInforma/8453

12
 
 

Forwarded from Feddit

Il Parlamento europeo istituisce un gruppo di lavoro trasversale per monitorare l’attuazione della legge sull’AI
feddit.it/post/9627886

Il nuovo post di informapirata è su feddit.it/c/aitech

Il Parlamento europeo istituisce un gruppo di lavoro trasversale per monitorare l’attuazione della legge sull’AI

L’articolo proviene da #Euractiv Italia ed è stato ricondiviso sulla comunità Lemmy
Due commissioni del Parlamento europeo hanno istituito un gruppo di lavoro congiunto per monitorare

feddit.it/post/9627886
Il Parlamento europeo istituisce un gruppo di lavoro trasversale per monitorare l’attuazione della legge sull’AI - Feddit.it - feddit.it
Il Parlamento europeo istituisce un gruppo di lavoro trasversale per monitorare l’attuazione della legge sull’AI [euractiv.it/section/digitale/n…


t.me/ppInforma/8455

13
 
 

Il Parlamento europeo istituisce un gruppo di lavoro trasversale per monitorare l’attuazione della legge sull’AI

L'articolo proviene da #Euractiv Italia ed è stato ricondiviso sulla comunità Lemmy @aitech
Due commissioni del Parlamento europeo hanno istituito un gruppo di lavoro congiunto per monitorare

14
 
 

Un nuovo strumento per i titolari di copyright può mostrare se il loro lavoro è nei dati di addestramento dell'intelligenza artificiale

Le trappole del copyright sono state utilizzate nel corso della storia, ma ora potrebbero rivelarsi uno strumento in una delle più grandi battaglie nell'ambito dell'intelligenza artificiale.

@aitech

https://www.technologyreview.com/2024/07/25/1095347/a-new-tool-for-copyright-holders-can-show-if-their-work-is-in-ai-training-data/

15
 
 

Meta rilascia il modello di IA aperta più potente di sempre, forse l’ultimo ad essere rilasciato in Europa

L'articolo proviene da #Euractiv Italia ed è stato ricondiviso sulla comunità Lemmy @aitech
Meta ha rilasciato Llama 3.1, il modello di intelligenza artificiale open source (AI) più performante finora,

16
 
 

Stati Uniti, Regno Unito e Unione europea si confrontano sulla concorrenza nello sviluppo dell’IA

L'articolo proviene da #Euractiv Italia ed è stato ricondiviso sulla comunità Lemmy @aitech
Le autorità per la concorrenza di Regno Unito, Stati Uniti e Unione europea hanno specificato i principi comuni di concorrenza

17
 
 

È un problema di cui purtroppo non si parla molto. Google, per esempio, potrebbe non riuscire a raggiungere la neutralità climatica entro il 2030 proprio per via di questi strumenti.

Gli strumenti di intelligenza artificiale generativa sono ormai parte della nostra vita quotidiana online, ma il prezzo in termini di stress sulle reti elettriche e impatto idrico è sempre più salato

In questo momento è impossibile non imbattersi nell’intelligenza artificiale online. Negli Stati Uniti, un riassunto generato dall'AI può apparire casualmente in cima ai risultati di una ricerca su Google. Ma può anche capitare che Meta vi inviti a provare la sua AI mentre siete su Facebook, per non parlare di quell'onnipresente emoji delle stelline che continua a perseguitarci.

Questa corsa ad aggiungere l'intelligenza artificiale al maggior numero possibile di interazioni online può essere fatta risalire al lancio di ChatGPT da parte di OpenAI alla fine del 2022. Per la Silicon Valley l'intelligenza artificiale generativa è presto diventata un'ossessione e, quasi due anni dopo, gli strumenti di AI alimentati da modelli linguistici di grandi dimensioni permeano l'esperienza di qualsiasi utente online.

L’epoca dell'iperconsumo

Uno sfortunato effetto collaterale di questa proliferazione è rappresentato dal fatto che i processi informatici necessari per sostenere i sistemi di AI generativa richiedono molte più risorse. Su internet siamo entrati nell'era dell'iperconsumo, un periodo definito dalla diffusione di un nuovo tipo di sistemi informatici che richiedono quantità eccessive di elettricità e acqua per essere costruiti e poter funzionare.

"Gli algoritmi che sostengono qualsiasi modello di intelligenza artificiale generativa sono fondamentalmente molto, molto diversi da quelli tradizionali che si usano per la ricerca su Google o per le email – afferma Sajjad Moazeni, ricercatore dell'Università di Washington –. I servizi di base erano molto leggeri dal punto di vista della quantità di dati che dovevano fare avanti e indietro tra i processori". Per fare un raffronto, Moazeni stima che dal punto di vista computazionale le applicazioni di AI generativa siano da 100 a 1000 volte più esigenti.

L'enorme fabbisogno energetico per l'addestramento e l'implementazione della tecnologia è ormai di dominio pubblico, da quando l'anno scorso un esperto dopo l'altro ha previsto un aumento della domanda di energia da parte dei data center in cui le aziende lavorano alle applicazioni di AI. Nemmeno a farlo apposta, Google ha recentemente smesso di considerarsi neutrale dal punto di vista delle emissioni di anidride carbonica e Microsoft potrebbe accantonare i suoi obiettivi di sostenibilità a favore della corsa alla costruzione di tool più grandi e performanti.

"L'impronta di CO2 e il consumo di energia andranno di pari passo con la potenza di calcolo, perché fondamentalmente questi data center vengono alimentati in modo proporzionale alla quantità di calcoli effettuati", afferma Junchen Jiang, ricercatore dell'Università di Chicago. In sostanza, più un modello di intelligenza artificiale è grande, più avrà bisogno di potenza di calcolo. E i nuovi modelli di frontiera stanno diventando giganteschi.

Anche se il consumo totale di energia di Google è raddoppiato dal 2019 al 2023, Corina Standiford, portavoce dell'azienda, ha dichiarato che non sarebbe corretto affermare che le esigenze energetiche di Big G hanno avuto un'impennata durante la corsa all'AI: "È estremamente impegnativo ridurre le emissioni dei nostri fornitori, che costituiscono il 75% della nostra impronta di CO2", ha dichiarato in un'email a Wired US. Tra i fornitori a cui fa riferimento l'azienda ci sono i produttori di server, apparecchiature di rete e altre infrastrutture tecniche per i data center: un processo ad alta intensità energetica necessario per creare le parti fisiche necessarie allo sviluppo dei nuovi modelli di AI.

Nonostante il trend sia in aumento, il fabbisogno energetico dei data center rappresenta ancora una piccola percentuale della quantità di energia utilizzata complessivamente dagli esseri umani. Fengqi You, ricercatore dell'università Cornell, sottolinea per esempio che raffinerie di petrolio, edifici e trasporti continuano ad avere un impatto maggiore: "Questi settori consumano molta più energia rispetto ai centri dati per l'AI", afferma. Ciò detto, l'impronta energetica del settore potrebbe continuare a crescere nel prossimo futuro, man mano che gli strumenti di genAI verranno integrati in più angoli di internet e adottati da un numero maggiore di utenti online.

Continua su Wired

18
 
 

Slop è il nuovo termine per descrivere contenuti non richiesti generati dalle intelligenze artificiali

https://prealpinux.com/2024/07/21/slop-il-nuovo.html

#UnoTech

@aitech

19
 
 

Video YouTube | Video Invidious

Un divertente video satirico sull'AI:

Il Governo™ ha realizzato uno spot sulla minaccia esistenziale che l'IA rappresenta per l'umanità, ed è sorprendentemente onesto e informativo.

20
 
 

Il Parlamento europeo riflette sul gruppo di monitoraggio per l’attuazione dell’AI Act

L'articolo proviene da #Euractiv Italia ed è stato ricondiviso sulla comunità Lemmy @aitech
Il Parlamento europeo sta discutendo l’istituzione di un gruppo di monitoraggio per l’attuazione della legge sull’intelligenza artificiale (IA), che

21
 
 

Da un Green Deal più pragmatico, a un’Europa della difesa, fino al rispetto dello Stato di diritto: il programma di von der Leyen

L'articolo proviene da #Euractiv Italia ed è stato ricondiviso sulla comunità Lemmy @aitech
Un approccio tecnologicamente neutrale al Green Deal,

22
 
 

Il 67% degli utenti considera ChatGPT e altri strumenti di intelligenza artificiale come soggetti coscienti tanto quanto persone

Due terzi degli intervistati per , uno studio dell'Università di Waterloo, ritengono comunque che i chatbot AI siano in qualche modo coscienti, superando il test di Turing per convincerli che un'AI è equivalente a un essere umano in termini di coscienza.

@aitech

https://global.techradar.com/it-it/computing/artificial-intelligence/molti-credono-che-lintelligenza-artificiale-sia-cosciente-come-una-persona

23
 
 

Gli AI Maxers sono entusiasti della scelta di Trump di JD Vance come vicepresidente

Le persone che sostengono il rapido sviluppo dell'intelligenza artificiale, in particolare gli autoproclamati "acceleratori efficaci" (e/acc) o "tecno-ottimisti", si sono aggrappate a due posizioni che condividono con Vance

@aitech

https://www.404media.co/ai-maxers-thrilled-with-trumps-vice-president-pick-jd-vance/

24
 
 

25
view more: next ›