Addestramento non supervisionato 

Nell’addestramento non supervisionato vengono forniti al computer esempi di input con l’output desiderato; otteniamo così dei modelli statistici o delle regole generali che consentono di analizzare nuovi documenti ed ottenere i risultati che si cercano. In un certo senso è come se alla macchina venga insegnato il comportamento intelligente della persona, quando svolge un compito preciso.

 

Addestramento supervisionato 

Nell’addestramento supervisionato vengono forniti alla macchina dati già elaborati, cioè annotati a mano, per fare l’apprendimento in modo corretto. L’algoritmo deve estrarre autonomamente, cioè far emergere, strutture di interesse, basandosi solo su criteri generali.

 

Alexa Skill

Alexa Skill è un software sviluppato da sviluppatori di terze parti per aggiungere una nuova funzionalità ad Alexa. Un Alexa Skill corrisponde ad una app di uno smartphone. Gli sviluppatori utilizzano Alexa Skills Kit per sviluppare le Skill di Alexa, inviarle ad Amazon per la certificazione e, previa certificazione e pubblicazione, consentire agli utenti finali di scoprire nuove Skills su Alexa Skills Store.

 

Alexa

Alexa è un servizio cloud che alimenta la famiglia di dispositivi Echo di Amazon. Il servizio è inoltre disponibile per la licenza da parte di fornitori hardware e software di terze parti che utilizzano Alexa Voice Service (AVS).

 

Alfabeto fonetico

Un alfabeto fonetico è un set di simboli che rappresentano suoni diversi. Tra gli alfabeti più comuni troviamo IPA e SAMPA.

 

Always Listening Device

Un Always Listening Device è un dispositivo che è sempre in attesa di una “wake word” e che elabora l’audio acquisito dopo di essa. Per esempio “Alexa” oppure “Ok Google”.

 

Analisi grammaticale

L’analisi grammaticale è l’associazione delle parti del discorso (POS, Part of Speech) a ciascuna parola nel testo.

 

Analisi morfosintattica

L’analisi morfosintattica è l’associazione delle parti del discorso con aggiunta dei tratti morfo-sintattici a ciascuna parola nel testo.

 

Analizzatore morfologico

Un analizzatore morfologico è un sistema, programma o algoritmo che effettua l’analisi grammaticale delle parole.

 

Assistente Vocale

Un assistente vocale è un dispositivo che  può rispondere a domande e fornire informazioni in modo verbale, utilizzando comandi vocali.

 

Automatic Speech Recognition (ASR)

L’Automatic Speech Recogniton è il processo in cui il linguaggio orale umano viene riconosciuto e successivamente elaborato attraverso un apposito sistema di riconoscimento vocale che converte il parlato in testo nella forma leggibile da un computer. Si tratta di una tecnologia che aumenta l’efficienza delle applicazioni self-service dei clienti consentendo agli utenti di pronunciare parole anziché digitare i numeri su una tastiera.

 

ASR Tuning

Il tuning ASR (Automatic Speech Recogniton) è un’attività di configurazione iterativa del software ASR per mappare meglio, sia in precisione che in velocità, l’ingresso audio di una parola o di una frase.

 

Big data

I big data sono un ampio volume di dati strutturati e non strutturati che possono essere estratti a scopo informativo per ottenere informazioni di business.

 

Bixby 

Bixby è l’assistente vocale di Samsung.

 

Business Intelligence

La Business Intelligence è l’insieme delle tecnologie, applicazioni e pratiche per raccogliere, integrare, analizzare e presentare delle informazioni di business. L’obiettivo principale della Business Intelligence è di supportare al meglio il processo di business decision making.

 

Chatbot

Un chatbot è un programma basato sull’intelligenza artificiale (IA) che può avere una conversazione automatizzata in linguaggio naturale tramite voce o testo e comprendere l’intent dell’utente, inviando una risposta basata su regole e dati dell’organizzazione. Consente ai clienti di esprimere i propri bisogni nel linguaggio che utilizzano ogni giorno, attraverso i canali di contatto che hanno sempre utilizzato.

 

Chunk

Un chunk è una parte costituente della frase, un blocco minimo di parole.

 

Classificazione Automatica 

La Classificazione Automatica consente di assegnare in modo automatico ai documenti in input le categorie definite dall’utente, in base alle somiglianza con gli esempi di documenti classificati a mano precedentemente. Esempi di casi d’uso: classificare survey o email secondo la tassonomia definita dal cliente.

 

Clustering

ll clustering è un metodo di apprendimento non supervisionato utilizzato per individuare raggruppamenti intrinseci nei dati. Ad esempio: raggruppare i clienti in base al loro comportamento di acquisto, che può venire poi impiegato per segmentare i clienti al fine di definire le migliori strategie di marketing.

 

Corpus (pl. Corpora)

Un corpus è una raccolta di testi reali di svariato genere selezionati e organizzati per facilitare le analisi linguistiche.

 

Corpus based

Analisi, metodologie, strumenti che hanno alla base dei corpora.

 

Cortana

Cortana è l’assistente vocale di Microsoft.

 

Dati non strutturati

I dati non strutturati sono informazioni, in molte forme diverse, che non rispettano i modelli di dati convenzionali e quindi in genere non sono adatti per un database relazionale tradizionale. Si tratta per la maggior parte di testo (feedback di clienti, recensioni, post di social media).

 

Dati strutturati

I dati strutturati sono dati conservati in database, organizzati secondo schemi e tabelle definite.

 

Disambiguazione

La disambiguazione è l’operazione con cui si precisa il significato di una parola o le sue proprietà linguistiche.

 

Fonema

Un fonema è un fono pertinentizzato, cioè una unità differenziante, indivisibile e astratta del sistema linguistico. Rappresenta un suono distintivo.

 

Fono

Il fono è un’unità acustica, rappresenta un suono non distintivo.

 

Google Action

Una Google Action è l’equivalente di una Skill Alexa. Google si riferisce in modo diverso alle “action” definendole come “agenti”, “assistenti” e “app”.

 

Google Assistant

Google Assistant è il servizio cloud fornito da Google che alimenta il dispositivo Google Home e altri dispositivi (ad esempio smartphone, tablet).

 

Google Home

Google Home è il dispositivo di Google che consente di interagire attraverso la voce.

 

Information Extraction (IE) 

L’Information Extraction è la capacità di trovare informazioni utili da un insieme di testi e codificarle in un formato tale da permettere la loro immissione in un database; dato, dunque, un insieme di documenti, un sistema di IE estrae unicamente l’informazione di cui l’utente ha bisogno (l’utente accede, quindi, prima all’informazione ed in seguito al documento in cui essa è contenuta). L’obiettivo principale è dunque l’estrazione di informazioni che consentono di descrivere il contenuto dei documenti.

 

Information Retrieval (IR) 

L’Information Retrieval è la capacità di selezionare un sottoinsieme rilevante di documenti da un insieme più grande, in risposta a delle query fornite dall’utente. L’IR è spesso utilizzata nei motori di ricerca, nei quali, inserendo una parola chiave (l’informazione a cui l’utente è interessato), vengono trovati direttamente tutti i documenti in cui tale parola è contenuta.

 

Intelligenza Artificiale

L’intelligenza artificiale è una tecnologia che consente alle macchine di eseguire attività che normalmente richiedono l’intelligenza umana, come il riconoscimento del linguaggio e del linguaggio umano, interpretare il significato di parole e dati e applicare il contesto e il ragionamento a ciascuna interazione.

 

International Phonetic Alphabet (IPA)

IPA è l’alfabeto fonetico internazionale, usato per rappresentare in maniera univoca ciascuno degli svariati suoni. IPA è uno dei primi alfabeti fonetici standardizzati. Non è molto usato nel trattamento automatico per i suoi simboli difficilmente rappresentabili con una tastiera semplice.

 

Language dependent

Dipendente dalla lingua, il termine si riferisce ai moduli/programmi/elaborazioni che non possono essere comuni per tutte le lingue.

 

Lemmatizzazione

La lemmatizzazione è il processo attraverso cui si determina qual è il lemma, ossia la forma canonica della parola, di una data forma flessa.

 

Lessico morfologico

Il lessico morfologico è un lessico di morfemi, ossia una raccolta di tutte le parti delle parole (radici, prefissi, suffissi derivazionali e flessionali) organizzata in modo da facilitare l’analisi linguistica fornendo informazioni sulle proprietà linguistiche di ognuno dei morfemi.

 

Linguaggio naturale

Il linguaggio naturale è la lingua che usiamo nella vita di tutti i giorni, come l’Inglese, il Russo, il Giapponese, il Cinese, ed è sinonimo di linguaggio umano, principalmente per poterlo distinguere dal linguaggio formale, incluso il linguaggio dei computer. Così com’è, il linguaggio naturale è la forma di comunicazione umana più naturale e più comune, e non solo nella sua versione parlata, anche in quella scritta, che sta crescendo esponenzialmente negli ultimi anni, da quando il mobile internet è in fermento con i social media. Rispetto al linguaggio formale, il linguaggio naturale è molto più complesso, contiene spesso sottintesi e ambiguità, il che lo rende molto difficile da elaborare.

 

Machine Learning

Il Machine Learning è lo studio, la costruzione e la combinazione di algoritmi per automatizzare lo svolgimento di compiti e la risoluzione di problemi.
Si tratta di un ambito con forti legami teorici con la statistica computazionale; spesso in ambito industriale è noto come predictive analytics o predictive modelling; è un componente fondamentale dell’Intelligenza Artificiale.

 

Modello acustico

Il modello acustico è una rappresentazione che mappa la relazione tra un segnale audio e i fonemi o altre unità linguistiche che compongono il parlato. Il modello viene creato prendendo registrazioni audio del parlato e le loro trascrizioni in testo ed utilizzando software specifici per creare rappresentazioni statistiche dei suoni che compongono ciascuna parola.

 

Morfema

Il morfema è il più piccolo elemento di parola dotato di un significato.

 

Named entities 

Le named entities sono insiemi di elementi importanti per la comprensione del testo come per esempio persone, organizzazioni, luoghi, eventi, quantità, valute monetarie, percentuali.

 

Named Entities Recognition (NER)

La Named Entities Recognition è un processo in cui viene analizzata una frase o una porzione di testo per trovare entità che possono essere inserite in categorie come nomi, organizzazioni, posizioni, quantità, valori monetari, percentuali, ecc., disambiguando il riferimento quando è necessario. Ad es. Torino è una città e una squadra di calcio.

 

Natural Language Processing

Il Natural Language Processing si riferisce al trattamento informatico (computer processing) del linguaggio naturale, per qualsiasi scopo, indipendente dal livello di approfondimento dell’analisi.

 

Normalizzazione

La normalizzazione è spesso è un primo passo nel trattamento automatico di testi. Si tratta di ricondurre a una forma unica diverse varianti: Perché = perché, perche, perke, ecc Più = piu, più, +

 

Opinion Mining 

L’Opinion Mining rileva l’opinione dei clienti o dipendenti relativamente ad un determinato target. Consente quindi di definire opinioni negative o positive rispetto a un determinato prodotto oppure topic (ambiente di lavoro, gentilezza del servizio clienti). L’Opinion mining permette quindi di fare un passaggio ulteriore rispetto alla discovery del sentiment. Mentre la funzione Sentiment evidenzia tutto ciò che c’è di positivo e negativo in un documento, l’opinion mining permette di fare un affondo e scegliere degli elementi a cui si è particolarmente interessati ed evidenziarne l’opinione che viene espressa. 

 

Parser

Il parser è un programma che esegue analisi della frase e determina la sua struttura grammaticale.

 

SAMPA

Il SAMPA (Speech Assessment Methods Phonetic Alphabet) è un alfabeto fonetico basato sull’IPA. A differenza dell’IPA, può essere usato facilmente anche senza ricorrere a caratteri speciali.

 

Sentiment Analysis 

La Sentiment Analysis si concentra sulla valutazione degli stati emotivi mostrati in una conversazione scritta o verbale e consiste nel rilevare parole che esprimono concetti positivi o negativi.

Un uso comune della Sentiment Analysis all’interno delle aziende è quello di fornire informazioni sul sentiment di un cliente in merito a un’organizzazione, ai suoi prodotti, servizi, processi di assistenza al cliente, nonché ai comportamenti dei singoli agenti. I dati di analisi del sentiment possono essere utilizzati all’interno di un’organizzazione per aiutare nella gestione delle relazioni con i clienti, nella formazione degli agenti e per aiutare a identificare e risolvere i situazioni problematiche non appena emergono.

Il processo di comprensione automatica del sentiment realizzato da CELI  si articola in tre fasi: l’esame di porzioni di testo e indicatori testuali come la punteggiatura, l’estrazione del mood positivo e negativo dai messaggi mediante la previa analisi del testo e la classificazione dei documenti secondo una polarità positiva, negativa o mixed.

 

Siri 

Siri è l’assistente vocale di Apple.

 

Speech-to-Text 

Lo Speech-to-text è un software che consente di trascrivere l’audio in testo in modo che il testo possa essere impiegato in attività di analisi (Text Analysis).

 

Tagging

Il tagging è l’annotazione e quindi il processo di assegnare diverse proprietà alle unità selezionate. Si possono avere tagging di diverso tipo: grammatical tagging – assegnazione di categorie grammaticali alle parole (PoS tagging), prosodic tagging – assegnazione proprietà prosodiche alle frasi o sintagmi.

 

Text Analysis

L’intelligenza artificiale applicata all’analisi del testo classifica le voci di interesse, determinando attraverso il clustering ciò che è prevalente, riconosce i pattern ricorrenti per scoprire le correlazioni e recupera le informazioni per ricavarne degli insight di valore. La Text Analysis fornisce quindi preziose informazioni sulle preferenze, il comportamento, il sentiment e le intenzioni dei consumatori che possono essere utilizzate per offrire esperienze differenziate durante tutto il ciclo di vita del cliente.

 

Text-to-Speech

Il Text-to-Speech è un sistema di sintesi vocale per la riproduzione artificiale della voce umana che converte il testo scritto in parlato.

 

Tokenizzazione

La tokenizzazione è la segmentazione del testo in unità significanti, per esempio: parole, date, orari, ecc. La tokenizzazione in alcune lingue, come per esempio arabo o giapponese, è un task piuttosto complesso, in quanto non esistono confini di parole espliciti come in italiano o in altre lingue europee.

 

Trascrizione fonetica

La trascrizione fonetica è la rappresentazione visiva dei suoni (foni o fonemi) della lingua. I suoni sono rappresentati per mezzo di simboli che costituiscono alfabeto fonetico. Gli alfabeti fonetici più conosciuti sono IPA e SAMPA. La trascrizione fonetica può essere larga o stretta (broad vs. narrow). Una trascrizione larga cattura i fenomeni distintivi mentre una trascrizione stretta tratta anche l’allofonia, ossia i fenomeni legati all’assimilazione di suoni vicini.

 

UTF-8

UTF-8 (Unicode Transformation Format 8) è una codifica di caratteri unicode di lunghezza variabile di byte. Si tratta dell’encoding (codifica) “universale” in quanto rappresenta numerosi alfabeti. E’ la codifica più flessibile per la scrittura in caratteri non-latini.