Sviluppare algoritmi che un giorno potrebbero essere usati contro di te

2021-01-25 04:00.
Brian Nord è un astrofisico e ricercatore di machine learning.

Gli algoritmi di apprendimento automatico ci forniscono le notizie che leggiamo, gli annunci che vediamo e in alcuni casi guidano anche le nostre auto. Ma c'è uno strato insidioso in questi algoritmi: si basano sui dati raccolti da e sugli esseri umani, e ci sputano contro i nostri peggiori pregiudizi. Ad esempio, gli algoritmi di screening dei candidati al lavoro possono rifiutare automaticamente i nomi che sembrano appartenere a persone non bianche, mentre il software di riconoscimento facciale è spesso molto peggiore nel riconoscere le donne o i volti non bianchi che nel riconoscere i volti maschili bianchi. Un numero crescente di scienziati e istituzioni si sta rendendo conto di questi problemi e sta parlando del potenziale danno che l'IA può causare.

Brian Nord è uno di questi ricercatori che valuta il proprio lavoro rispetto alla possibilità di causare danni con gli algoritmi di intelligenza artificiale. Nord è un cosmologo al Fermilab e all'Università di Chicago, dove usa l'intelligenza artificiale per studiare il cosmo, e sta ricercando un concetto per un " telescopio a guida autonoma " in grado di scrivere e testare ipotesi con l'aiuto di un algoritmo di apprendimento automatico . Allo stesso tempo, sta lottando con l'idea che gli algoritmi che sta scrivendo possano un giorno essere prevenuti contro di lui - e persino usati contro di lui - e sta lavorando per costruire una coalizione di fisici e scienziati informatici per lottare per una maggiore supervisione nello sviluppo di algoritmi di intelligenza artificiale .

Questa intervista è stata modificata e condensata per chiarezza.

Gizmodo: Come sei diventato un fisico interessato all'IA e alle sue insidie?

Brian Nord: Il mio dottorato di ricerca è in cosmologia e quando mi sono trasferito al Fermilab nel 2012, mi sono trasferito nel sottocampo delle lenti gravitazionali forti. [ Nota del redattore: le lenti gravitazionali sono luoghi nel cielo notturno dove la luce proveniente da oggetti distanti è stata piegata dal campo gravitazionale di oggetti pesanti in primo piano, facendo apparire gli oggetti sullo sfondo deformati e più grandi. ] Ho passato alcuni anni facendo una forte scienza dell'ottica nel modo tradizionale, dove avremmo cercato visivamente attraverso terabyte di immagini, attraverso migliaia di candidati di queste potenti lenti gravitazionali, perché sono così strane, e nessuno aveva capito un altro algoritmo convenzionale per identificarli. Intorno al 2015, ero un po 'triste all'idea di trovare queste cose solo con i miei occhi, quindi ho iniziato a guardarmi intorno e ho trovato un apprendimento profondo.

Eccoci qui qualche anno dopo - io e poche altre persone abbiamo reso popolare questa idea di utilizzare l'apprendimento profondo - e ora è il modo standard per trovare questi oggetti. È improbabile che le persone tornino a utilizzare metodi che non sono l'apprendimento profondo per riconoscere la galassia. Siamo arrivati ​​a questo punto in cui abbiamo visto che l'apprendimento profondo è il punto e abbiamo visto molto rapidamente il potenziale impatto di esso attraverso l'astronomia e le scienze. Adesso sta colpendo ogni scienza. Questa è una testimonianza della promessa e del pericolo di questa tecnologia, con uno strumento così relativamente semplice. Una volta che hai messo insieme i pezzi, puoi fare molte cose diverse facilmente, senza necessariamente riflettere sulle implicazioni.

Gizmodo: Allora, cos'è il deep learning? Perché è buono e perché è cattivo?

BN: I modelli matematici tradizionali (come F = ma delle leggi di Newton) sono costruiti dagli esseri umani per descrivere schemi nei dati: usiamo la nostra attuale comprensione della natura, nota anche come intuizione, per scegliere i pezzi, la forma di questi modelli. Ciò significa che sono spesso limitati da ciò che sappiamo o possiamo immaginare di un set di dati. Questi modelli sono anche tipicamente più piccoli e sono meno generalmente applicabili per molti problemi.

D'altra parte, i modelli di intelligenza artificiale possono essere molto grandi, con molti, molti gradi di libertà, quindi possono essere resi molto generali e in grado di descrivere molti set di dati diversi. Inoltre, cosa molto importante, sono principalmente scolpiti dai dati a cui sono esposti: i modelli di intelligenza artificiale sono modellati dai dati con cui vengono addestrati. Gli esseri umani decidono cosa inserire nel set di addestramento, che viene poi nuovamente limitato da ciò che sappiamo o possiamo immaginare di quei dati. Non è un grande salto vedere che se non si hanno i dati di allenamento giusti, si può cadere dal dirupo molto velocemente.

La promessa e il pericolo sono strettamente correlati. Nel caso dell'IA, la promessa è nella capacità di descrivere dati che gli esseri umani non sanno ancora come descrivere con i nostri modelli "intuitivi". Ma, pericolosamente, i set di dati utilizzati per addestrarli incorporano i nostri pregiudizi. Quando si tratta di AI che riconosce le galassie, stiamo rischiando misurazioni distorte dell'universo. Quando si tratta di AI che riconosce i volti umani, quando i nostri set di dati sono prevenuti contro i volti neri e marroni, ad esempio, rischiamo la discriminazione che impedisce alle persone di utilizzare i servizi, che intensifica gli apparati di sorveglianza, che mette a rischio le libertà umane. È fondamentale soppesare e affrontare queste conseguenze prima di mettere in pericolo la vita delle persone con la nostra ricerca.

Gizmodo: Quando si è spenta la lampadina nella tua testa che l'IA poteva essere dannosa?

BN: Devo dire che è stato con l' articolo Machine Bias di ProPublica nel 2016, dove si parla di recidività e procedura di condanna in tribunale. Al momento di quell'articolo, c'era un algoritmo closed-source utilizzato per formulare raccomandazioni per la condanna e ai giudici era permesso usarlo. Non c'era alcuna supervisione pubblica di questo algoritmo, che ProPublica riteneva fosse prevenuto nei confronti dei neri; le persone potrebbero utilizzare algoritmi come questo, volenti o nolenti, senza responsabilità. Mi sono reso conto che come uomo di colore, avevo passato gli ultimi anni ad appassionarmi alle reti neurali, poi ho visto abbastanza chiaramente che queste applicazioni che potrebbero danneggiarmi erano già là fuori, già in uso, e stiamo già iniziando a diventare incorporato nella nostra struttura sociale attraverso il sistema di giustizia penale. Poi ho iniziato a prestare sempre più attenzione. Mi sono reso conto che i paesi di tutto il mondo stavano usando la tecnologia di sorveglianza, incorporando algoritmi di apprendimento automatico, per usi oppressivi diffusi.

Gizmodo: Come hai reagito? Che cosa hai fatto?

BN: non volevo reinventare la ruota; Volevo costruire una coalizione. Ho iniziato a esaminare gruppi come Fairness, Accountability e Transparency in Machine Learning, oltre a Black in AI, che si concentra sulla creazione di comunità di ricercatori neri nel campo dell'IA, ma che ha anche la consapevolezza unica del problema perché siamo le persone che sono colpiti. Ho iniziato a prestare attenzione alle notizie e ho visto che Meredith Whittaker aveva avviato un think tank per combattere queste cose e Joy Buolamwini aveva contribuito a fondare l' Algorithmic Justice League. Ho rispolverato quello che stavano facendo gli informatici e ho iniziato a guardare cosa stavano facendo i fisici, perché quella è la mia comunità principale.

È diventato chiaro a persone come me e Savannah Thais che i fisici dovevano rendersi conto di avere un interesse in questo gioco. Otteniamo finanziamenti governativi e tendiamo ad adottare un approccio fondamentale alla ricerca. Se portiamo questo approccio all'intelligenza artificiale, abbiamo il potenziale per influenzare le basi di come funzionano questi algoritmi e avere un impatto su un insieme più ampio di applicazioni. Mi sono chiesto a me stesso e ai miei colleghi quale fosse la nostra responsabilità nello sviluppo di questi algoritmi e nell'aver avuto voce in capitolo su come vengono utilizzati in futuro.

Gizmodo: Come sta andando finora?

BN: Attualmente, scriveremo un white paper per SNOWMASS, questo evento di fisica ad alta energia. Il processo SNOWMASS determina la visione che guida la comunità per circa un decennio. Ho iniziato a identificare le persone con cui lavorare, colleghi fisici ed esperti che hanno a cuore i problemi, e ho sviluppato una serie di argomenti sul perché i fisici di istituzioni, individui e agenzie di finanziamento dovrebbero preoccuparsi profondamente di questi algoritmi che stanno costruendo e implementando così velocemente. È un pezzo che chiede alle persone di pensare a quanto stanno considerando le implicazioni etiche di ciò che stanno facendo.

Abbiamo già tenuto un seminario presso l'Università di Chicago dove abbiamo iniziato a discutere di questi temi, e al Fermilab abbiamo avuto alcune discussioni iniziali. Ma non abbiamo ancora la massa critica sul campo per sviluppare la politica. Non possiamo farlo da soli come fisici; non abbiamo esperienza in scienze sociali o studi tecnologici. Il modo giusto per farlo è riunire i fisici del Fermilab e di altre istituzioni con scienziati sociali ed etici e persone e professionisti che studiano scienza e tecnologia, e costruire qualcosa da lì. La chiave sarà attraverso la partnership con queste altre discipline.

Gizmodo: Perché non abbiamo ancora raggiunto quella massa critica?

BN: Penso che dobbiamo mostrare alle persone, come ha detto Angela Davis, che la nostra lotta è anche la loro lotta. Ecco perché parlo di costruzione di coalizioni. La cosa che ci colpisce riguarda anche loro. Un modo per farlo è esporre chiaramente il potenziale danno oltre la razza e l'etnia. Recentemente, c'è stata questa discussione di un documento che utilizzava reti neurali per cercare di accelerare la selezione dei candidati per i programmi di dottorato. Hanno addestrato l'algoritmo sui dati storici. Quindi lasciatemi essere chiaro, hanno detto che questa è una rete neurale, ecco i dati sui candidati che sono stati negati e accettati nelle università. Quei candidati sono stati scelti da docenti e persone con pregiudizi. Dovrebbe essere ovvio per chiunque sviluppi quell'algoritmo che stai per incastrare i pregiudizi in quel contesto. Spero che le persone vedranno queste cose come problemi e aiuteranno a costruire la nostra coalizione.

Gizmodo: Qual è la tua visione per un futuro di intelligenza artificiale etica?

BN: E se ci fossero una o più agenzie per la responsabilità algoritmica? Potevo vederli esistenti a livello locale, nazionale e istituzionale. Non possiamo prevedere tutti gli usi futuri della tecnologia, ma dobbiamo porre domande all'inizio dei processi, non come un ripensamento. Un'agenzia aiuterebbe a porre queste domande e consentirebbe comunque alla scienza di portare a termine, ma senza mettere in pericolo la vita delle persone. Oltre alle agenzie, abbiamo bisogno di politiche a vari livelli che prendano una decisione chiara su quanto devono essere sicuri gli algoritmi prima di essere utilizzati su esseri umani o altri esseri viventi. Se avessi i miei druthers, queste agenzie e politiche sarebbero costruite da un gruppo di persone incredibilmente diversificato. Abbiamo visto casi in cui un gruppo omogeneo sviluppa un'app o una tecnologia e non ha visto le cose che avrebbe visto un altro gruppo che non è presente. Abbiamo bisogno di persone di tutto lo spettro di esperienza per partecipare alla progettazione di politiche per l'IA etica.

Gizmodo: Quali sono le tue più grandi paure riguardo a tutto questo?

BN: La mia più grande paura è che le persone che hanno già accesso alle risorse tecnologiche continuino a usarle per soggiogare le persone che sono già oppresse; Anche Pratyusha Kalluri ha avanzato questa idea di dinamica del potere. Questo è quello che stiamo vedendo in tutto il mondo. Certo, ci sono città che stanno cercando di vietare il riconoscimento facciale, ma a meno che non abbiamo una coalizione più ampia, a meno che non abbiamo più città e istituzioni disposte ad affrontare direttamente questa cosa, non saremo in grado di impedire a questo strumento di esacerbarsi supremazia bianca, razzismo e misoginia che già esistono oggi nelle strutture. Se non promuoviamo una politica che metta al primo posto le vite delle persone emarginate, allora continueranno a essere oppresse e accelererà.

Gizmodo: In che modo pensare all'etica dell'IA ha influenzato la tua ricerca?

BN: Devo chiedermi se voglio lavorare con l'IA e come lo farò; se è o meno la cosa giusta da fare per costruire un certo algoritmo. È qualcosa che devo continuare a chiedermi ... Prima, era tipo, quanto velocemente posso scoprire cose nuove e costruire una tecnologia che possa aiutare il mondo a imparare qualcosa? Ora c'è una sfumatura significativa in questo. Anche le cose migliori per l'umanità potrebbero essere usate in alcuni dei modi peggiori. È un ripensamento fondamentale dell'ordine delle operazioni quando si tratta della mia ricerca.

Non credo sia strano pensare prima alla sicurezza. Abbiamo OSHA e gruppi di sicurezza presso istituzioni che scrivono elenchi di cose che devi controllare prima di poter prendere una scala, per esempio. Perché non stiamo facendo la stessa cosa nell'IA? Una parte della risposta è ovvia: non tutti noi siamo persone che sperimentano gli effetti negativi di questi algoritmi. Ma essendo una delle poche persone di colore nelle istituzioni in cui lavoro, ne sono consapevole, ne sono preoccupato e la comunità scientifica deve capire che anche la mia sicurezza è importante e che le mie preoccupazioni per la sicurezza no finisce quando esco dal lavoro.

Gizmodo: Qualcos'altro?

BN: Vorrei ribadire che quando guardi alcune delle ricerche che sono uscite, come il vaglio dei candidati per la scuola di specializzazione, o quando guardi i pregiudizi degli algoritmi usati nella giustizia penale, questi sono problemi ripetuto più e più volte, con gli stessi pregiudizi. Non ci vogliono molte indagini per vedere che il bias entra in questi algoritmi molto rapidamente. Le persone che li sviluppano dovrebbero davvero conoscerli meglio. Forse ci devono essere più requisiti educativi per gli sviluppatori di algoritmi per pensare a questi problemi prima di avere l'opportunità di liberarli nel mondo.

Questa conversazione deve essere portata al livello in cui gli individui e le istituzioni considerano queste questioni una priorità. Una volta che sei lì, hai bisogno che le persone capiscano che questa è un'opportunità per la leadership. Se riusciamo a convincere una comunità di base ad aiutare un'istituzione a prendere l'iniziativa in questo, incentiva molte persone ad iniziare ad agire.

Infine, le persone che hanno esperienza in queste aree devono essere autorizzate a esprimere la loro opinione. Non possiamo permettere alle nostre istituzioni di calmarci, quindi non possiamo parlare delle questioni che stiamo sollevando. Il fatto che io abbia esperienza come uomo di colore che fa scienza in America e il fatto che mi occupo di intelligenza artificiale, dovrebbe essere apprezzato dalle istituzioni. Dà loro l'opportunità di avere una prospettiva unica e assumere una posizione di leadership unica. Sarei preoccupato se le persone si sentissero come se non potessero esprimere la loro opinione. Se non riusciamo a far uscire questi problemi alla luce del sole, come saremo in grado di costruire dall'oscurità?

Suggested posts

L'Asus ZenWatch 2 è uno smartwatch dannatamente bello per non troppi soldi

L'Asus ZenWatch 2 è uno smartwatch dannatamente bello per non troppi soldi

Abbiamo avuto una prima occhiata all'Asus ZenWatch 2 all'inizio di quest'estate, ma oggi stiamo ottenendo le specifiche complete. Wow, puoi davvero ottenere un buon Android Wear senza spendere una fortuna? Meno di un anno fa, abbiamo dichiarato l'originale ZenWatch come il primo smartwatch che indosseremmo senza esitazione solo sul design.

Aiuta a liberare New York dalla sua ingiusta legge sul "coltello gravitazionale"

Aiuta a liberare New York dalla sua ingiusta legge sul "coltello gravitazionale"

Negli ultimi 10 anni, 60.000 persone a New York sono finite in prigione a causa di una legge degli anni '50 che vietava i "coltelli a gravità", la cui vaga definizione consente alla polizia e ai tribunali di perseguire le persone per aver portato praticamente qualsiasi cosa tagliente. L'86% di coloro che sono stati incarcerati erano neri o latini.

Related posts

I cervelli delle api possono essere il modello per il prossimo balzo evolutivo nella tecnologia delle fotocamere

I cervelli delle api possono essere il modello per il prossimo balzo evolutivo nella tecnologia delle fotocamere

Foto: Getty L'ape mellifera assediata è normalmente sostenuta per i suoi poteri vitali di impollinazione, ma un nuovo studio mostra che presto potremmo ringraziarla per aver ispirato immagini a colori più accurate nella fotografia digitale. Un gruppo di ricercatori ha pubblicato i risultati della loro indagine su come le api percepiscono il colore oggi nella rivista Proceedings of the National Academy of Sciences (PNAS).

La polizia di Dallas ha utilizzato un robot bomba per uccidere il sospetto dopo le sparatorie

La polizia di Dallas ha utilizzato un robot bomba per uccidere il sospetto dopo le sparatorie

Immagine: AP Secondo il capo della polizia di Dallas David Brown, dopo ore di trattative fallite con un sospetto messo alle strette all'El Centro College di Dallas, gli agenti hanno inviato un robot per far esplodere una bomba e uccidere il sospetto. conferenza stampa del mattino: Ecco un video da quella particolare parte della conferenza stampa: Il sospetto ha detto alla polizia di essere arrabbiato per le recenti sparatorie di Philandro Castile e Alton Sterling e voleva uccidere i bianchi, "specialmente gli ufficiali bianchi", secondo The Atlantico.

La Corte Suprema ha appena sostenuto l'uso di un farmaco per iniezione letale crudele

La Corte Suprema ha appena sostenuto l'uso di un farmaco per iniezione letale crudele

La Corte Suprema degli Stati Uniti ha stabilito che l'uso da parte dell'Oklahoma di un cocktail di iniezione letale è protetto dalla Costituzione oggi con una decisione 5-4. Ciò significa che lo stato continuerà a uccidere i detenuti del braccio della morte usando il controverso midazolam anestetico.

Una valigia migliore con un coperchio arrotolabile che non si frappone mai

Una valigia migliore con un coperchio arrotolabile che non si frappone mai

Significa che sacrificherai un po 'di spazio di archiviazione, ma la nuova valigia Kame progettata da Nendo di Fabbrica Pelletterie Milano ha un intelligente coperchio segmentato che si arrotola quando viene aperto in modo da non cadere costantemente su di te mentre cerchi di trovare uno specifico camicia. Significa anche che puoi aprire la valigia in spazi ristretti, come nel retro di un taxi, se stai cercando di trovare una giacca o di riporla.

MORE COOL STUFF

I fan di "Ballando con le stelle" adorano i giudici dello spettacolo, Tyra Banks, presentatrice dell'arrosto

I fan di "Ballando con le stelle" adorano i giudici dello spettacolo, Tyra Banks, presentatrice dell'arrosto

Gli spettatori di "Ballando con le stelle" non si sono scaldati per mostrare la conduttrice Tyra Banks. È stata arrostita nella sezione commenti di un post di apprezzamento.

La star di "No Time To Die" Daniel Craig si rammarica per questo commento "ingrato" sull'interpretazione di James Bond

La star di "No Time To Die" Daniel Craig si rammarica per questo commento "ingrato" sull'interpretazione di James Bond

Dopo aver girato 'Spectre', Daniel Craig ha detto alcune cose brutte sul fatto di aver mai interpretato di nuovo James Bond. La star di "No Time To Die" ora se ne pente.

'Nine Perfect Strangers': cosa c'era in Carmel's Eye?

'Nine Perfect Strangers': cosa c'era in Carmel's Eye?

La trama di Carmel in "Nine Perfect Strangers" ha preso una piega scioccante. Ma una cosa che gli spettatori si sono chiesti è il suo occhio.

I fan delle "Regole Vanderpump" noteranno che manca qualcosa nei nuovi piani di ristorazione di TomTom

I fan delle "Regole Vanderpump" noteranno che manca qualcosa nei nuovi piani di ristorazione di TomTom

Le star di "Vanderpump Rules" Tom Sandoval e Tom Scwartz stanno aprendo un nuovo ristorante, ma i loro nuovi piani sembrano tralasciare qualcosa.

La prima TAC è stata 50 anni fa, cambiando la medicina per sempre

La prima TAC è stata 50 anni fa, cambiando la medicina per sempre

La prima TAC ha permesso ai medici di vedere all'interno del cranio di una donna e confermare la sua massa cerebrale cistica. Quello scanner? È stato sviluppato da un eccentrico ingegnere che ha lavorato presso la casa discografica dei Beatles.

Come cambiare il tuo nome su Facebook

Come cambiare il tuo nome su Facebook

Vuoi cambiare il tuo nome su Facebook? È facile da fare in pochi semplici passaggi.

7.000 passi sono i nuovi 10.000 passi

7.000 passi sono i nuovi 10.000 passi

Se non riesci sempre a raggiungere l'obiettivo giornaliero arbitrario di 10.000 passi, abbiamo buone notizie. Anche la tua salute può trarne beneficio se fai meno passi.

Perché non puoi pompare il tuo gas nel New Jersey?

Perché non puoi pompare il tuo gas nel New Jersey?

Il Garden State è l'unico stato negli Stati Uniti in cui è illegale pompare il proprio gas. Cosa dà?

Shameless: Emma Kenney afferma che il set è diventato un "posto più positivo" dopo l'uscita di Emmy Rossum

Shameless: Emma Kenney afferma che il set è diventato un "posto più positivo" dopo l'uscita di Emmy Rossum

L'ex spudorata Emma Kenney ha parlato della sua esperienza di lavoro con Emmy Rossum nella serie Showtime.

Hamilton Star Javier Muñoz sull'essere immunocompromessi nella pandemia: "Ero letteralmente nel terrore"

Hamilton Star Javier Muñoz sull'essere immunocompromessi nella pandemia: "Ero letteralmente nel terrore"

"Non c'era nessuna possibilità da cogliere", dice a PERSONE Javier Muñoz, sieropositivo e sopravvissuto al cancro.

Rachael Ray dice di essere grata di "essere viva" dopo l'incendio in casa e l'inondazione dell'appartamento

Rachael Ray dice di essere grata di "essere viva" dopo l'incendio in casa e l'inondazione dell'appartamento

"Così tante persone mi hanno scritto e mi hanno contattato dicendo che anche noi abbiamo perso così tanto", ha detto Rachael Ray su Extra.

Freida Pinto incinta condivide le foto del suo "dolce" baby shower: "Mi sento così benedetta e fortunata"

Freida Pinto incinta condivide le foto del suo "dolce" baby shower: "Mi sento così benedetta e fortunata"

Freida Pinto, che aspetta il suo primo figlio dal fidanzato Cory Tran, ha festeggiato il suo piccolo lungo la strada con un baby shower all'aperto.

Un bicchiere di equilibrio tra lavoro e vita privata? Per me?

No grazie.

Un bicchiere di equilibrio tra lavoro e vita privata? Per me?

Credi nell'equilibrio tra lavoro e vita privata? Io non. Penso che noi - esseri umani - siamo molto complessi.

Intervista: Stephanie Shannon (vincitore Nicholl 2013, Black List 2013) — Parte 6

Stephanie Shannon non solo è uno dei cinque vincitori dell'Academy Nicholl Fellowships in Screenwriting 2013, lo ha fatto con la sua prima sceneggiatura integrale: "Queen of Hearts". Oltre a ciò, la sceneggiatura è arrivata nella Black List del 2013.

D3T3CT a PRoT3CT — Dridex Malware

D3T3CT a PRoT3CT — Dridex Malware

tl;dr ⏳ Questo articolo esamina il malware dridex con l'obiettivo di dargli la caccia! Per questo facciamo il contrario per quanto possibile in modo da conoscere alcune sezioni della #killchain mentre il malware attraversa insieme ai suoi IOC & IOA e infine creare logiche di rilevamento che siano in linea con il nostro obiettivo. Rex Dridex🐛 Dridex è un trojan/malware bancario comunemente distribuito tramite campagne di spam tramite e-mail di phishing contenenti documenti #Excel dannosi.

Diario di Chandigarh

Diario di Chandigarh

Onestamente, è stato il nostro primo incontro, anche se ci conosciamo da oltre un decennio. Quarantotto ore prima dell'interazione faccia a faccia, il segretario generale della Chandigarh Transport Association Bajrang Sharma ha twittato: “Benvenuti a Chandigarh per nuovi suggerimenti per il benessere dell'industria/commercio.

Language