Tuesday 19 September 2017

Moving Media Potere Bi


La maggior parte delle persone hanno familiarità con la frase, quotthis ucciderà due piccioni con una stonequot. Se non you39re, la fase si riferisce ad un approccio che risolve due obiettivi in ​​una sola azione. (Purtroppo, l'espressione stessa è piuttosto sgradevole, come la maggior parte di noi don39t vuole lanciare pietre contro gli animali innocenti) Oggi I39m andando a coprire alcune nozioni di base su due grandi funzionalità di SQL Server: l'indice Columnstore (disponibile solo in SQL Server Enterprise) e Store query SQL. Microsoft effettivamente implementata l'indice Columnstore in SQL 2012 Enterprise, anche se they39ve rafforzata nelle ultime due versioni di SQL Server. Microsoft ha introdotto Store query in SQL Server 2016. Quindi, quali sono queste caratteristiche e perché sono importanti Beh, ho un demo che introdurrà sia le caratteristiche e mostrare il modo in cui ci possono aiutare. Prima di andare avanti, io copro anche questo (e altri SQL 2016 caratteristiche) nel mio articolo CODE Magazine su nuove funzionalità di SQL 2016. Come un'introduzione di base, l'indice Columnstore può contribuire ad accelerare le query che scanaggregate su grandi quantità di dati, e Store Query tracce esecuzioni di query, piani di esecuzione e le statistiche di runtime che you39d normalmente hanno bisogno di raccogliere manualmente. Fidati di me quando dico, questi sono grandi caratteristiche. Per questa demo, I39ll essere utilizzando il database demo di Microsoft Contoso dati di vendita al dettaglio Warehouse. In parole povere, Contoso DW è come quota davvero grande AdventureWorksquot, con le tabelle contenenti milioni di righe. (Il più grande tabella AdventureWorks contiene circa 100.000 righe al massimo). È possibile scaricare il database Contoso DW qui: microsoften-usdownloaddetails. aspxid18279. Contoso DW funziona molto bene quando si desidera verificare le prestazioni su query sulle tabelle di grandi dimensioni. Contoso DW contiene una tabella dei fatti data warehouse standard chiamato FactOnLineSales, con 12,6 milioni di righe. That39s certamente non il più grande tabella di data warehouse del mondo, ma non it39s child39s giocare sia. Supponiamo che io voglio riassumere importo delle vendite di prodotti per il 2009, e classificare i prodotti. Potrei interrogare la tabella dei fatti e unirsi al tavolo Dimensione del prodotto e utilizzare una funzione RANK, in questo modo: Here39s un set di risultati parziali delle prime 10 righe, con vendite totali. Sul mio computer portatile (i7, 16 GB di RAM), la query richiede dovunque da 3-4 secondi per l'esecuzione. Questo potrebbe non sembrare la fine del mondo, ma alcuni utenti potrebbe aspettare risultati quasi immediati (il modo in cui è possibile vedere i risultati quasi immediati quando si utilizza Excel contro un cubo OLAP). L'unico indice momento ho su questo tavolo è un indice cluster su una chiave di vendita. Se guardo il piano di esecuzione, SQL Server offre un suggerimento per aggiungere un indice di copertura al tavolo: Ora, proprio perché SQL Server suggerisce un indice, doesn39t significa che si dovrebbe creare ciecamente indici su ogni quotmissing messaggio indexquot. Tuttavia, in questo caso, SQL Server rileva che stiamo filtrando sulla base di anno, e utilizzando la quantità chiave e vendite dei prodotti. Quindi, SQL Server suggerisce un indice di copertura, con la DateKey come campo chiave dell'indice. Il motivo per cui chiamiamo questo un indice quotcoveringquot è perché SQL Server quotbring lungo la fieldsquot non chiave che abbiamo usato nella query, quotfor il ridequot. Questo doesn39t modo, SQL Server è necessario utilizzare la tabella o l'indice cluster a tutti il ​​motore di database può semplicemente utilizzare l'indice di copertura per la query. indici che coprono sono popolari in alcuni data warehousing e scenari di database di report, anche se essi hanno un costo del motore di database mantenimento delle stesse. Nota: copertura indici sono stati intorno per un lungo periodo di tempo, così ho haven39t ancora coperto l'indice Columnstore e l'archivio di query. Quindi, vorrei aggiungere l'indice di copertura: Se ri-eseguire la stessa query ho incontrato poco fa (quello che aggregata l'importo delle vendite per ogni prodotto), la query a volte sembra correre su un secondo più veloce, e ho un diverso piano di esecuzione, uno che utilizza un Index Seek invece di un indice di scansione (utilizzando il tasto data sul indice di copertura per recuperare le vendite per il 2009). Quindi, prima della Index Columnstore, questo potrebbe essere un modo per ottimizzare la query nelle versioni più vecchie di SQL Server. Si corre un po 'più veloce rispetto al primo, e ottenere un piano di esecuzione con un Indice Seek invece di un indice di scansione. Tuttavia, ci sono alcuni problemi: I due operatori di esecuzione quotIndex Seekquot e quotHash partita (aggregato) quot sia essenzialmente operano quotrow da rowquot. Immaginate questo in una tabella con centinaia di milioni di righe. Correlati, pensare il contenuto di una tabella dei fatti: in questo caso, un valore chiave singola data Andor un valore chiave unico prodotto potrebbe essere ripetuto per centinaia di migliaia di righe (ricordate, la tabella dei fatti ha anche tasti per la geografia, la promozione, venditore , ecc) così, quando la riga di lavoro quotIndex Seekquot e quotHash Matchquot per riga, lo stanno facendo su valori che potrebbero essere ripetuti in molte altre righe. Questo è normalmente dove I39d Segue l'indice di SQL Server Columnstore, che offre uno scenario per migliorare le prestazioni di questa query in modi sorprendenti. Ma prima di farlo, let39s andare indietro nel tempo. Let39s risalgono all'anno 2010, quando Microsoft ha introdotto un add-in per Excel conosciuto come PowerPivot. Molte persone probabilmente ricordo di aver visto demo di PowerPivot per Excel, in cui un utente potrebbe leggere milioni di righe da un'origine dati esterna in Excel. PowerPivot sarebbe comprimere i dati, e di fornire un motore per creare tabelle pivot e grafici pivot che si sono esibiti a velocità strabilianti contro i dati compressi. PowerPivot utilizzato una tecnologia in-memory che Microsoft chiamato quotVertiPaqquot. Questa tecnologia in-memory in PowerPivot sarebbe fondamentalmente prendere affari duplicato valori chiave keyforeign e comprimerli fino a un singolo vettore. La tecnologia in-memory inoltre scanaggregate questi valori in parallelo, in blocchi di diverse centinaia alla volta. La linea di fondo è che Microsoft ha preparato una grande quantità di miglioramenti delle prestazioni in funzione VertiPaq in memoria per noi da usare, a destra, fuori dalla scatola proverbiale. Perché sto prendendo questa piccola passeggiata nostalgiche Perché in SQL Server 2012, Microsoft ha implementato una delle caratteristiche più importanti nella storia del loro motore di database: l'indice Columnstore. L'indice è in realtà un indice in un solo nome: è un modo per prendere una tabella SQL Server e creare un compresso, in memoria columnstore che comprime i valori chiave esterna duplicati fino a valori vettoriali singoli. Microsoft ha inoltre creato un nuovo pool di buffer di leggere questi valori vettoriali compressi in parallelo, creando il potenziale per enormi guadagni di prestazioni. Così, I39m andando a creare un indice columnstore sul tavolo, e I39ll vedere quanto meglio (e più efficiente) l'esecuzione della query, contro la query che va contro l'indice di copertura. Così, I39ll creare un duplicato di FactOnlineSales (I39ll chiamarla FactOnlineSalesDetailNCCS), e I39ll creare un indice columnstore sulla tabella duplicato in questo modo ho won39t interferire con la tabella originale e l'indice di copertura in alcun modo. Avanti, I39ll creare un indice columnstore sulla nuova tabella: Nota diverse cose: I39ve specificato diverse colonne chiave esterna, così come l'importo delle vendite. Ricordate che un indice columnstore non è come un tradizionale indice di riga-store. Non vi è alcun quotkeyquot. Stiamo semplicemente indicando quali Server colonne SQL dovrebbe comprimere e posto in un columnstore in memoria. Per usare l'analogia di PowerPivot per Excel quando creiamo un indice columnstore, we39re dicendo SQL Server per fare essenzialmente la stessa cosa che PowerPivot fatto quando abbiamo importato 20 milioni di righe in Excel utilizzando PowerPivot Quindi, I39ll rieseguire il interrogazione, questa volta usando la tabella FactOnlineSalesDetailNCCS duplicato che contiene l'indice columnstore. Questa interrogazione viene eseguito immediatamente in meno di un secondo. E posso anche dire che, anche se il tavolo aveva centinaia di milioni di righe, sarebbe ancora funzionare alla quotbat proverbiale di un eyelashquot. Potremmo guardare il piano di esecuzione (e in pochi istanti, noi), ma ora it39s tempo per coprire la funzione di query Store. Immaginate per un momento, che abbiamo fatto entrambe le query durante la notte: la query che ha utilizzato il tavolo FactOnlineSales regolare (con l'indice di copertura) e quindi la query che ha utilizzato il tavolo duplicato con l'indice Columnstore. Quando ci registriamo al mattino seguente, we39d piacerebbe vedere il piano di esecuzione per entrambe le query come hanno avuto luogo, così come le statistiche di esecuzione. In altre parole, we39d piace vedere le stesse statistiche che we39d in grado di vedere se abbiamo fatto entrambe le query in modo interattivo in SQL Management Studio, trasformato nel tempo e IO statistiche, e visto il piano di esecuzione subito dopo l'esecuzione della query. Ebbene, that39s ciò che il negozio di query ci permette di fare possiamo accendere (attiva) Query Store per un database, che innescherà SQL Server per l'esecuzione e pianificare le statistiche sulle query negozio in modo da poter visualizzare in un secondo momento. Così, I39m andando a consentire il deposito di query sul database Contoso con il seguente comando (e I39ll anche chiaro qualsiasi caching): Allora I39ll eseguire i due query (e quotpretendquot che li mi sono imbattuto ore fa): Ora let39s finta correvano ore fa. Secondo quello che ho detto, l'Archivio Query catturerà le statistiche di esecuzione. Allora, come faccio a visualizzarle Fortunatamente, that39s abbastanza facile. Se ho espandere il database Contoso DW, I39ll vedere una cartella Query Store. La query Store ha un enorme funzionalità e I39ll cercare di coprire gran parte di essa nei successivi post del blog. Ma per ora, voglio visualizzare le statistiche di esecuzione sulle due interrogazioni, ed esamina in particolare gli operatori di esecuzione per l'indice columnstore. Così I39ll tasto destro del mouse sulla risorsa Top consumo di query ed eseguire questa opzione. Questo mi dà un grafico come quello qui sotto, dove posso vedere il tempo di durata di esecuzione (in millisecondi) per tutte le query che sono stati eseguiti. In questo caso, Query 1 le query sulla tabella originale con l'indice di copertura, e Query 2 era contro il tavolo con l'indice columnstore. I numeri don39t trovarsi l'indice columnstore sovraperformato l'indice Tovaglie originale di un fattore di quasi il 7 a 1. posso cambiare la metrica di guardare il consumo di memoria, invece. In questo caso, si noti che interrogazione 2 (la query indice di columnstore) utilizzato molto di più memoria. Ciò dimostra chiaramente il motivo per cui l'indice columnstore rappresenta quotin-memoryquot tecnologia SQL Server carica l'intero indice columnstore in memoria, e utilizza un pool di buffer completamente diverso con operatori di esecuzione avanzate per elaborare l'indice. OK, così abbiamo alcuni grafici per visualizzare le statistiche di esecuzione possiamo vedere il piano di esecuzione (e operatori di esecuzione) associati a ogni esecuzione Sì, possiamo Se si fa clic sulla barra verticale per la query che ha utilizzato l'indice columnstore, you39ll vedere l'esecuzione piano di sotto. La prima cosa che vediamo è che SQL Server ha eseguito una scansione di indice columnstore, e che ha rappresentato quasi il 100 del costo della query. Si potrebbe dire, quotWait un minuto, la prima query ha utilizzato un indice di copertura ed ha effettuato un indice di ricerca così come può una scansione indice columnstore essere fasterquot That39s una domanda legittima, e there39s fortunatamente una risposta. Anche quando la prima query eseguito un indice cercano, ancora eseguito quotrow da rowquot. Se metto il mouse sopra l'operatore indice di scansione columnstore, vedo un suggerimento (come quella qui sotto), con un'impostazione importante: la modalità di esecuzione è LOTTO (in contrapposizione a remare che è quello che abbiamo avuto con la prima query utilizzando il. indice di copertura). Che modalità LOTTO ci dice che SQL Server sta elaborando i vettori compressi (per i valori chiave esterna che sono duplicati, come ad esempio il prodotto chiave e la chiave data) in lotti di quasi 1.000, in parallelo. Quindi, SQL Server è ancora in grado di elaborare l'indice columnstore molto più efficiente. Inoltre, se metto il mouse sopra il compito Hash Match (aggregato), vedo anche che SQL Server è aggregando l'indice columnstore utilizzando la modalità batch (anche se l'operatore stesso rappresenta una piccola percentuale del costo della query tale) Infine, potrebbe essere chiedendo, quotOK, quindi SQL Server comprime i valori nei dati, tratta i valori come vettori, e leggerli in blocchi di quasi mille valori in parallelo, ma la mia domanda voleva solo i dati per il 2009. quindi è Server SQL scansione sul intero set di dataquot Anche in questo caso, una buona domanda. La risposta è, quotNot reallyquot. Fortunatamente per noi, il nuovo pool di buffer indice columnstore svolge un'altra funzione chiamata eliminationquot quotsegment. In sostanza, SQL Server esaminerà i valori vettoriali per la colonna chiave data nell'indice columnstore, ed eliminare i segmenti che si trovano al di fuori del campo di applicazione del 2009. I39ll fermarsi qui. Nelle successive post del blog I39ll coprire sia l'indice columnstore e Query Conservare in modo più dettagliato. In sostanza, ciò che we39ve visto qui oggi è che l'indice Columnstore può accelerare in modo significativo le query che scanaggregate su grandi quantità di dati, e il negozio di query catturerà le esecuzioni di query e ci permettono di esaminare le statistiche di esecuzione e le prestazioni in seguito. Alla fine, we39d desidera produrre un set di risultati che mostra quanto segue. Notate tre cose: Le colonne essenzialmente ruotano tutti i possibili motivi di ritorno, dopo aver mostrato le vendite ammontano Il set di risultati contiene subtotali dalla settimana terminata (Domenica) data in tutti i clienti (in cui il Cliente è NULL) Il set di risultati contiene un totale complessivo riga (in cui il cliente e la data sono entrambi NULL) in primo luogo, prima di entrare in fine SQL abbiamo potuto usare la capacità pivotmatrix dinamica in SSRS. Avremmo semplicemente bisogno di combinare i due set di risultati da una colonna e allora potremmo nutrire i risultati al controllo della matrice di SSRS, che si diffonderà le ragioni di ritorno attraverso le colonne asse del rapporto. Tuttavia, non tutti usano SSRS (anche se la maggior parte delle persone dovrebbe). Ma anche allora, a volte gli sviluppatori hanno bisogno di consumare i set di risultati in qualcosa di diverso da uno strumento di reporting. Quindi, per questo esempio, let39s assumono vogliamo generare il set di risultati per una pagina di rete web e forse lo sviluppatore vuole quotstrip outquot le righe di totale parziale (dove mi hanno un valore ResultSetNum di 2 e 3) e metterli in una griglia di sintesi. Così la linea di fondo, abbiamo bisogno per generare l'output sopra direttamente da una stored procedure. E come una torsione settimana prossima aggiunta ci potrebbe essere di ritorno Motivo X e Y e Z. Così abbiamo don39t so quante ragioni ritorno ci potrebbe essere. Noi vogliamo che il semplice query per ruotare sui possibili valori distinti per Return Reason. Qui è dove il perno T-SQL ha una restrizione abbiamo bisogno di fornire i valori possibili. Dal momento che won39t sappiamo che fino a run-time, è necessario per generare la stringa di query in modo dinamico utilizzando il modello SQL dinamico. Il modello SQL dinamico consiste nel generare la sintassi, pezzo per pezzo, riporlo in una stringa, e quindi l'esecuzione della stringa alla fine. SQL dinamico può essere difficile, in quanto dobbiamo incorporare la sintassi all'interno di una stringa. Ma in questo caso, è la nostra unica vera opzione se vogliamo gestire un numero variabile di motivi di ritorno. I39ve sempre trovato che il modo migliore per creare una soluzione SQL dinamico è quello di capire che cosa il quotidealquot generato-query sarebbe alla fine (in questo caso, visti i motivi di ritorno siamo a conoscenza).e poi reverse-engineering facendo mettendo insieme una parte alla volta. E così, ecco il SQL cui abbiamo bisogno se sapessimo quei motivi di ritorno (da A a D) sono stati statici e non cambierebbe. La query esegue le seguenti operazioni: combina i dati provenienti SalesData con i dati ReturnData, dove abbiamo quothard-wirequot le vendite di parola come un tipo di azione costituiscono la tabella delle vendite, e quindi utilizzare la Ragione ritorno dal Data ritorno nella stessa colonna ActionType. Questo ci darà una colonna pulita ActionType su cui ruotare. Stiamo combinando le due istruzioni SELECT in un'espressione di tabella comune (CTE), che è fondamentalmente un subquery tabella derivata che poi utilizziamo nella dichiarazione successiva (a PIVOT) Una dichiarazione PERNO contro il CTE, che riassume i dollari per il tipo di azione essendo in uno dei possibili valori Action Type. Si noti che questo isn39t il set di risultati finale. Noi stiamo mettendo questo in un CTE che legge dal primo CTE. La ragione di questo è perché vogliamo fare più raggruppamenti alla fine. La dichiarazione finale SELECT, che legge dal PIVOTCTE, e li combina con una successiva interrogazione contro lo stesso PIVOTCTE, ma dove abbiamo anche implementare due raggruppamenti nei set funzione di raggruppamento in SQL 2008: raggruppamento per la Data di Week End (dbo. WeekEndingDate) raggruppamento per tutte le righe () quindi, se sapessimo con certezza che we39d mai avere più codici motivo di ritorno, che poi sarebbe la soluzione. Tuttavia, dobbiamo tenere conto di altri codici motivo. Quindi abbiamo bisogno di generare quella intera query di cui sopra come un unico grande stringa in cui costruiamo le possibili ragioni di ritorno come un elenco separato da virgole. I39m intenzione di mostrare l'intero codice T-SQL per generare (ed eseguire) la query desiderata. E poi I39ll rompere fuori in parti e spiegare ogni passaggio. Quindi, prima, here39s l'intero codice per generare dinamicamente quello I39ve ottenuto sopra. Ci sono fondamentalmente cinque passi che devono coprire. Passo 1 . sappiamo che da qualche parte nel mix, abbiamo bisogno di generare una stringa per questo nella query: SalesAmount, Reason A, Reason B, Reason C, Reason D0160016001600160 Quello che possiamo fare è costruita una temporanea un'espressione di tabella comune che unisce i quotSales cablati colonna Amountquot con la lista unica di possibili codici motivo. Una volta che abbiamo che in un CTE, possiamo usare la bella piccolo trucco di FOR XML PATH (3939) a crollare le righe in una singola stringa, mettere una virgola davanti a ogni riga che la query legge, e quindi utilizzare roba da sostituire la prima istanza di una virgola con uno spazio vuoto. Questo è un trucco che si può trovare in centinaia di blog SQL. Quindi, questa prima parte costruisce una stringa chiamata ActionString che possiamo usare più in basso. Passo 2 . sappiamo anche che we39ll desidera sommare le colonne ragione generatedpivoted, insieme con la colonna di vendita standard. Così we39ll bisogno di una stringa separata per questo, che I39ll chiamata SUMSTRING. I39ll è sufficiente utilizzare il ActionString originale, e quindi sostituire le staffe esterne con sintassi SUM, più le staffe originali. Fase 3: Ora comincia il vero lavoro. Utilizzando tale query originale come modello, vogliamo generare la query originale (a partire con l'unione dei due tavoli), ma sostituendo tutti i riferimenti a colonne imperniati con le corde che abbiamo generato dinamicamente sopra. Inoltre, anche se non assolutamente necessario, I39ve anche creato una variabile semplicemente qualsiasi combinazioni di avanzamento del carrello returnline che vogliamo inserire nella query generato (per migliorare la leggibilità). Così we39ll costruire l'intera query in una variabile denominata SQLPivotQuery. Fase 4. Continuiamo la costruzione di nuovo la query, concatenando la sintassi possiamo quothard-wirequot con il ActionSelectString (che abbiamo generato dinamicamente per contenere tutti i possibili valori motivo di ritorno) Fase 5. Infine, we39ll generare la parte finale del perno Query, che legge dall'espressione tabella 2 nd comune (PIVOTCTE, dal modello sopra) e genera la finale SELECT per leggere dal PIVOTCTE e combinarlo con un 2 ° letto contro PIVOTCTE a implementare i set di raggruppamento. Infine, possiamo quotexecutequot la stringa utilizzando il sistema di SQL memorizzato proc spexecuteSQL Così si spera si può vedere che il processo a seguito di questo tipo di sforzo è determinare ciò che la query finale sarebbe, in base alla corrente insieme di dati e valori (cioè costruito un modello di query) Scrivere il codice T-SQL necessario per generare quel modello di query come una stringa. Probabilmente la parte più importante è determinare l'insieme unico di valori su cui you39ll PIVOT, e poi crollare in una stringa utilizzando la funzione di roba e la FOR XML PATH (3939) ingannare Così che cosa è sulla mia mente oggi bene, almeno 13 articoli Due estati fa, ho scritto un progetto che si è concentrato BDR (in parte) sul ruolo dell'istruzione e il valore di un buon background di arti liberali non solo per l'industria del software, ma anche per altri settori come bene. Uno dei temi di questo particolare BDR sottolineato un punto di vista fondamentale e illuminata dal famoso architetto software Allen Holub per quanto riguarda le arti liberali. Ill (fedelmente) parafrasando il suo messaggio: ha sottolineato il parallelismo tra la programmazione e la storia lo studio, ricordando a tutti che la storia è la lettura e la scrittura (e ill Aggiungi, individuare modelli), e lo sviluppo del software è anche la lettura e la scrittura (e ancora una volta, identificando modelli ). E così ho scritto un pezzo di opinione che si è concentrato su questo e altri argomenti correlati. Ma fino ad oggi, non ho mai avuto intorno a uno publishingposting esso. Ogni tanto Id pensa di una sua revisione, e Id anche sedersi per qualche minuto e apportare alcune modifiche ad esso. Ma poi la vita in generale sarebbe ottenere nel modo e Id mai finire. Allora, cosa è cambiato Qualche settimana fa, collega CoDe Magazine giornalista e leader del settore Ted Neward ha scritto un pezzo nella sua rubrica fissa, Coder gestito, che ha attirato la mia attenzione. Il titolo di questo articolo è On Liberal Arts. e consiglio vivamente a tutti di leggere esso. Ted discute il valore di un background di arti liberali, la falsa dicotomia tra uno sfondo di arti liberali e il successo nello sviluppo di software, e la necessità di writecommunicate bene. Parla un po 'del suo stesso passato incontri con la gestione del personale HR quanto riguarda la sua carriera scolastica. Si sottolinea inoltre la necessità di accettare e adattarsi ai cambiamenti nel nostro settore, così come le caratteristiche di un software di successo professionale (essere affidabile, pianificazione per il futuro, e imparare a superare il conflitto iniziale con altri membri del team). Quindi è un grande letto, così come lo sono Teds articoli altro codice e post di blog. Inoltre mi ha fatto tornare a pensare mie opinioni su questo (e altri argomenti) come pure, e alla fine mi ha motivato a finire il mio editoriale. Quindi, meglio tardi che mai, ecco il mio attuale Bakers Dozen di riflessioni: Ho un modo di dire: l'acqua congela a 32 gradi. Se siete in un ruolo trainingmentoring, si potrebbe pensare che stai facendo tutto nel mondo per aiutare qualcuno, quando in realtà, stanno solo sentendo una temperatura di 34 gradi e quindi le cose arent solidificazione per loro. A volte ci vuole solo un po 'più di sforzo o altro catalizzatore ideachemical o una nuova prospettiva che significa quelli con istruzione preventiva può attingere a fonti diverse. L'acqua congela a 32 gradi. Alcune persone possono mantenere alti livelli di concentrazione, anche con una stanza piena di gente rumorosa. Im non uno di loro ogni tanto ho bisogno di un po 'di privacy per pensare attraverso una questione critica. Alcune persone descrivono questo come devi imparare a camminare lontano da essa. Detto in altro modo, la sua ricerca dei air. This rarefatte scorsa settimana ho trascorso ore in penombra, sala relax con una lavagna, fino a quando ho pienamente capito un problema. Fu solo allora che ho potuto andare a parlare con altri sviluppatori circa una soluzione. Il messaggio qui è neanche per predicare come si dovrebbe andare sulla tua attività di risolvere i problemi, ma piuttosto per tutti di conoscere i loro punti di forza e ciò che funziona, e li usa a proprio vantaggio il più possibile. Alcune frasi sono come le unghie su una lavagna per me. Utilizzare come un momento insegnamento è uno. (Perché è come le unghie su una lavagna Perché se sei in un ruolo di mentore, di solito si dovrebbe essere in Modalità momento comunque, tuttavia sottilmente). Heres un'altra Non posso davvero spiegare a parole, ma lo capisco. Questo potrebbe sembrare un po 'freddo, ma se una persona veramente non riesco a spiegare qualcosa a parole, forse essi non capiscono. Certo, una persona può avere un senso confuso di come qualcosa funziona posso bluffare la mia strada attraverso descrivere come funziona una macchina fotografica digitale, ma la verità è che io davvero non capisco tanto bene. Vi è un campo di studio noto come epistemologia (lo studio della conoscenza). Una delle basi fondamentali della comprensione se la sua una macchina fotografica o un modello di progettazione - è la capacità di stabilire contesto, di identificare la catena di eventi correlati, gli attributi di tutti i componenti lungo il percorso, ecc Sì, la comprensione a volte è un lavoro molto duro , ma le immersioni in un argomento e la rottura a parte vale la pena. Anche coloro che evitano certificazione riconoscere che il processo di studio per le prove di certificazione contribuirà a colmare le lacune nella conoscenza. Un gestore di database è più probabile di assumere uno sviluppatore di database che può parlare a braccio (e senza sforzo) sui livelli di isolamento delle transazioni e trigger, al contrario di qualcuno che sorta di lo sa, ma fa fatica a descrivere il loro utilizzo. Theres un altro corollario qui. Ted Neward consiglia agli sviluppatori occupano di parlare in pubblico, blogging, ecc concordo 100. Il processo di parlare in pubblico e di blogging che farà di te costringerà a iniziare a pensare a temi e abbattendo le definizioni che si potrebbe avere altrimenti dato per scontato. Alcuni anni fa ho pensato che ho capito l'istruzione MERGE T-SQL abbastanza bene. Ma solo dopo aver scritto a questo proposito, parlando di, rispondere alle domande provenienti da altri che avevano punti di vista che non è mai venuto in mente che il mio livello di comprensione è aumentata in modo esponenziale. So che la storia di un gestore assumente che una volta ha intervistato un authordeveloper per una posizione di contratto. Il gestore assumente era sprezzante di pubblicazioni in genere, e abbaiò il richiedente, quindi, se si sta andando a lavorare qui, preferireste essere scrivere libri o la scrittura di codice Sì, fa male che in qualsiasi settore ci saranno alcuni studiosi puri. Ma ciò che il gestore assumente mancava era le opportunità per il rafforzamento e l'affilatura set di abilità. Durante la pulizia fuori una vecchia scatola di libri, mi sono imbattuto in un tesoro dal 1980: programmatori sul lavoro. che contiene interviste con un giovanissimo Bill Gates, Ray Ozzie, e altri nomi noti. Ogni intervista ed ogni intuizione vale il prezzo del libro. A mio avviso, l'intervista più interessante era con Butler Lampson. che ha dato qualche consiglio potente. Al diavolo l'alfabetizzazione informatica. La sua assolutamente ridicolo. matematica di studio. Imparare a pensare. Leggere. Scrivi. Queste cose hanno un valore più duraturo. Imparare a dimostrare teoremi: Un sacco di prove ha accumulato nel corso dei secoli, che suggerisce questa abilità è trasferibile a molte altre cose. Butler dice la verità. Ill aggiungere a quel punto imparare a giocare diavoli avvocato contro se stessi. Quanto più è possibile la realtà-controllare i propri processi e di lavoro, meglio youll essere. Il grande scientistauthor computer di Allen Holub fatto il collegamento tra lo sviluppo del software e le arti liberali in particolare, il soggetto della storia. Qui è stato il suo punto: che cosa è la storia di lettura e scrittura. Qual è lo sviluppo del software tra le altre cose, la lettura e la scrittura. Ho usato per dare i miei studenti domande saggio T-SQL come test di prova. Uno studente scherzato sul fatto che ho agito più come un professore di diritto. Ebbene, proprio come allenatore Donny Haskins ha detto nel film Glory Road, la strada è difficile. Credo fermamente in una solida base intellettuale per qualsiasi professione. Proprio come le applicazioni possono beneficiare di quadri, gli individui e le loro processi di pensiero possono beneficiare di quadri umani. Quello è la base fondamentale della borsa di studio. C'è una storia che già nel 1970, IBM ha ampliato i loro sforzi di reclutamento nelle maggiori università concentrandosi sulle migliori e più brillanti di laureati arti liberali. Anche allora hanno riconosciuto che i migliori lettori e scrittori potrebbero un giorno diventare programmersystems forti analisti. (Sentitevi liberi di usare questa storia per qualsiasi HR-tipo che insiste sul fatto che un candidato deve avere una laurea informatica) E a proposito della storia: se non altro, è importante ricordare la storia di rilasci di prodotti, se sto facendo il lavoro a un questo è sito client che utilizzano ancora SQL Server 2008 o addirittura (gasp) di SQL Server 2005, devo ricordare quali caratteristiche sono state implementate nelle versioni nel corso del tempo. Mai avere un medico preferito il quale ti è piaciuto perché heshe ha spiegato le cose in parole povere, ti ha dato la verità dritto, e ha guadagnato la vostra fiducia per operare su di voi Queste sono le abilità pazze. e sono il risultato di esperienza e di duro lavoro che vorranno anni e anche decenni per coltivare. Non ci sono garanzie di concentrarsi successo nel lavoro sui fatti, prendere qualche rischio calcolato quando sei sicuro che si può vedere la strada verso il traguardo, lasciare che i chip cadere dove possono, e non perdere mai di vista di essere proprio come quel medico che ha guadagnato la vostra fiducia. Anche se alcuni giorni mi sono inferiori, cerco di trattare il mio cliente ed i loro dati come un medico sarebbe il trattamento di pazienti. Anche se un medico fa più soldi Ci sono molte clichs detesto, ma heres uno io non odio: Non esiste una cosa come una cattiva domanda. Come un ex istruttore, una cosa che ha attirato la mia ira stava sentendo qualcuno criticare un'altra persona per chiedere a un presunto, domanda stupida. Una domanda indica una persona riconosce hanno qualche lacuna nella conoscenza theyre cercando di riempire. Sì, alcune domande sono meglio formulate rispetto ad altri, e alcune domande richiedono ulteriore inquadratura prima di poter rispondere. Ma il viaggio di formare una domanda per una risposta è in grado di generare un processo mentale attiva in altri. Ci sono tutte le cose buone. Molte discussioni buone e proficue origine da una domanda stupida. Io lavoro su tutta la linea in SSIS, SSAS, SSRS, MDX, PPS, SharePoint, alimentazione BI, DAX tutti gli strumenti dello stack Microsoft BI. Ho ancora scrivere del codice di tanto in tanto. Ma che quello che ancora passare così tanto tempo a fare la scrittura di codice T-SQL al profilo dei dati come parte del processo di scoperta. Tutti gli sviluppatori di applicazioni dovrebbero avere buone braciole T-SQL. Ted Neward scrive (correttamente) sulla necessità di adattarsi ai cambiamenti tecnologici. Ill aggiungere che la necessità di adattarsi ai cambiamenti clientemployer. Le aziende cambiano le regole di business. Le aziende acquisiscono altre società (o diventare il bersaglio di un'acquisizione). Le aziende commettono errori nella comunicazione dei requisiti e specifiche. Sì, a volte possiamo giocare un ruolo nel contribuire a gestire tali cambiamenti e, a volte eravamo al volo, non il parabrezza. Questi a volte causano grande dolore per tutti, soprattutto il I. T. persone. Questo è il motivo per cui il fatto termine della vita esiste abbiamo a che fare con esso. Proprio come nessun sviluppatore scrive codice privo di bug ogni volta, non I. T. offerte persona ben con cambio ogni singola volta. Uno dei più grandi lotte Ive ha avuto nei miei 28 anni in questo settore sta mostrando pazienza e moderazione quando i cambiamenti stanno volando da molte direzioni diverse. Qui è dove la mia prima proposta sulla ricerca per l'aria rarefatta può aiutare. Se si riesce ad assimilare i cambiamenti nel vostro processo di pensiero, e senza sentirsi sopraffatti, le probabilità sono youll è una risorsa significativa. Negli ultimi 15 mesi Ive ha avuto a che fare con una quantità enorme di cambiamento professionale. Il suo stato molto difficile a volte, ma Ive ha deliberato che il cambiamento sarà la norma e Ive ha provato a modificare le mie abitudini nel miglior modo possibile per far fronte a frequenti (e incerta) cambiamento. Il suo duro, molto duro. Ma come allenatore Jimmy Duggan ha detto nel film Ragazze vincenti: Naturalmente il suo duro. Se non fosse stato difficile, tutti sarebbero farlo. Il disco, è ciò che rende grande. Un messaggio potente. Theres è parlato nel settore nel corso degli ultimi anni circa condotta a conferenze professionali (e il comportamento in settore nel suo complesso). Molti scrittori hanno scritto rispettati ottimi editoriali sul tema. Heres il mio ingresso, per quello che il suo valore. Its a message to those individuals who have chosen to behave badly: Dude, it shouldnt be that hard to behave like an adult. A few years ago, CoDe Magazine Chief Editor Rod Paddock made some great points in an editorial about Codes of Conduct at conferences. Its definitely unfortunate to have to remind people of what they should expect out of themselves. But the problems go deeper. A few years ago I sat on a five-person panel (3 women, 2 men) at a community event on Women in Technology. The other male stated that men succeed in this industry because the Y chromosome gives men an advantage in areas of performance. The individual who made these remarks is a highly respected technology expert, and not some bozo making dongle remarks at a conference or sponsoring a programming contest where first prize is a date with a bikini model. Our world is becoming increasingly polarized (just watch the news for five minutes), sadly with emotion often winning over reason. Even in our industry, recently I heard someone in a position of responsibility bash software tool XYZ based on a ridiculous premise and then give false praise to a competing tool. So many opinions, so many arguments, but heres the key: before taking a stand, do your homework and get the facts . Sometimes both sides are partly rightor wrong. Theres only one way to determine: get the facts. As Robert Heinlein wrote, Facts are your single clue get the facts Of course, once you get the facts, the next step is to express them in a meaningful and even compelling way. Theres nothing wrong with using some emotion in an intellectual debate but it IS wrong to replace an intellectual debate with emotion and false agenda. A while back I faced resistance to SQL Server Analysis Services from someone who claimed the tool couldnt do feature XYZ. The specifics of XYZ dont matter here. I spent about two hours that evening working up a demo to cogently demonstrate the original claim was false. In that example, it worked. I cant swear it will always work, but to me thats the only way. Im old enough to remember life at a teen in the 1970s. Back then, when a person lost hisher job, (often) it was because the person just wasnt cutting the mustard. Fast-forward to today: a sad fact of life is that even talented people are now losing their jobs because of the changing economic conditions. Theres never a full-proof method for immunity, but now more than ever its critical to provide a high level of what I call the Three Vs (value, versatility, and velocity) for your employerclients. I might not always like working weekends or very late at night to do the proverbial work of two people but then I remember there are folks out there who would give anything to be working at 1 AM at night to feed their families and pay their bills. Always be yourselfyour BEST self. Some people need inspiration from time to time. Heres mine: the great sports movie, Glory Road. If youve never watched it, and even if youre not a sports fan I can almost guarantee youll be moved like never before. And Ill close with this. If you need some major motivation, Ill refer to a story from 2006. Jason McElwain, a high school student with autism, came off the bench to score twenty points in a high school basketball game in Rochester New York. Heres a great YouTube video. His mother said it all . This is the first moment Jason has ever succeeded and is proud of himself. I look at autism as the Berlin Wall. He cracked it. To anyone who wanted to attend my session at todays SQL Saturday event in DC I apologize that the session had to be cancelled. I hate to make excuses, but a combination of getting back late from Detroit (client trip), a car thats dead (blown head gasket), and some sudden health issues with my wife have made it impossible for me to attend. Back in August, I did the same session (ColumnStore Index) for PASS as a webinar. You can go to this link to access the video (itll be streamed, as all PASS videos are streamed) The link does require that you fill out your name and email address, but thats it. And then you can watch the video. Feel free to contact me if you have questions, at kgoffkevinsgoff November 15, 2013 Getting started with Windows Azure and creating SQL Databases in the cloud can be a bit daunting, especially if youve never tried out any of Microsofts cloud offerings. Fortunately, Ive created a webcast to help people get started. This is an absolute beginners guide to creating SQL Databases under Windows Azure. It assumes zero prior knowledge of Azure. You can go to the BDBI Webcasts of this website and check out my webcast (dated 11102013). Or you can just download the webcast videos right here: here is part 1 and here is part 2. You can also download the slide deck here. November 03, 2013 Topic this week: SQL Server Snapshot Isolation Levels, added in SQL Server 2005. To this day, there are still many SQL developers, many good SQL developers who either arent aware of this feature, or havent had time to look at it. Hopefully this information will help. Companion webcast will be uploaded in the next day look for it in the BDBI Webcasts section of this blog. October 26, 2013 Im going to start a weekly post of T-SQL tips, covering many different versions of SQL Server over the years Heres a challenge many developers face. Ill whittle it down to a very simple example, but one where the pattern applies to many situations. Suppose you have a stored procedure that receives a single vendor ID and updates the freight for all orders with that vendor id. create procedure dbo. UpdateVendorOrders update Purchasing. PurchaseOrderHeader set Freight Freight 1 where VendorID VendorID Now, suppose we need to run this for a set of vendor IDs. Today we might run it for three vendors, tomorrow for five vendors, the next day for 100 vendors. We want to pass in the vendor IDs. If youve worked with SQL Server, you can probably guess where Im going with this. The big question is how do we pass a variable number of Vendor IDs Or, stated more generally, how do we pass an array, or a table of keys, to a procedure Something along the lines of exec dbo. UpdateVendorOrders SomeListOfVendors Over the years, developers have come up with different methods: Going all the way back to SQL Server 2000, developers might create a comma-separated list of vendor keys, and pass the CSV list as a varchar to the procedure. The procedure would shred the CSV varchar variable into a table variable and then join the PurchaseOrderHeader table to that table variable (to update the Freight for just those vendors in the table). I wrote about this in CoDe Magazine back in early 2005 (code-magazinearticleprint. aspxquickid0503071ampprintmodetrue. Tip 3) In SQL Server 2005, you could actually create an XML string of the vendor IDs, pass the XML string to the procedure, and then use XQUERY to shred the XML as a table variable. I also wrote about this in CoDe Magazine back in 2007 (code-magazinearticleprint. aspxquickid0703041ampprintmodetrue. Tip 12)Also, some developers will populate a temp table ahead of time, and then reference the temp table inside the procedure. All of these certainly work, and developers have had to use these techniques before because for years there was NO WAY to directly pass a table to a SQL Server stored procedure. Until SQL Server 2008 when Microsoft implemented the table type. This FINALLY allowed developers to pass an actual table of rows to a stored procedure. Now, it does require a few steps. We cant just pass any old table to a procedure. It has to be a pre-defined type (a template). So lets suppose we always want to pass a set of integer keys to different procedures. One day it might be a list of vendor keys. Next day it might be a list of customer keys. So we can create a generic table type of keys, one that can be instantiated for customer keys, vendor keys, etc. CREATE TYPE IntKeysTT AS TABLE ( IntKey int NOT NULL ) So Ive created a Table Typecalled IntKeysTT . Its defined to have one column an IntKey. Nowsuppose I want to load it with Vendors who have a Credit Rating of 1..and then take that list of Vendor keys and pass it to a procedure: DECLARE VendorList IntKeysTT INSERT INTO VendorList SELECT BusinessEntityID from Purchasing. Vendor WHERE CreditRating 1 So, I now have a table type variable not just any table variable, but a table type variable (that I populated the same way I would populate a normal table variable). Its in server memory (unless it needs to spill to tempDB) and is therefore private to the connectionprocess. OK, can I pass it to the stored procedure now Well, not yet we need to modify the procedure to receive a table type. Heres the code: create procedure dbo. UpdateVendorOrdersFromTT IntKeysTT IntKeysTT READONLY update Purchasing. PurchaseOrderHeader set Freight Freight 1 FROM Purchasing. PurchaseOrderHeader JOIN IntKeysTT TempVendorList ON PurchaseOrderHeader. VendorID Te mpVendorList. IntKey Notice how the procedure receives the IntKeysTT table type as a Table Type (again, not just a regular table, but a table type). It also receives it as a READONLY parameter. You CANNOT modify the contents of this table type inside the procedure. Usually you wont want to you simply want to read from it. Well, now you can reference the table type as a parameter and then utilize it in the JOIN statement, as you would any other table variable. Così il gioco è fatto. A bit of work to set up the table type, but in my view, definitely worth it. Additionally, if you pass values from , youre in luck. You can pass an ADO data table (with the same tablename property as the name of the Table Type) to the procedure. For developers who have had to pass CSV lists, XML strings, etc. to a procedure in the past, this is a huge benefit. Finally I want to talk about another approach people have used over the years. SQL Server Cursors. At the risk of sounding dogmatic, I strongly advise against Cursors, unless there is just no other way. Cursors are expensive operations in the server, For instance, someone might use a cursor approach and implement the solution this way: DECLARE VendorID int DECLARE dbcursor CURSOR FASTFORWARD FOR SELECT BusinessEntityID from Purchasing. Vendor where CreditRating 1 FETCH NEXT FROM dbcursor INTO VendorID WHILE FETCHSTATUS 0 EXEC dbo. UpdateVendorOrders VendorID FETCH NEXT FROM dbcursor INTO VendorID The best thing Ill say about this is that it works. And yes, getting something to work is a milestone. But getting something to work and getting something to work acceptably are two different things. Even if this process only takes 5-10 seconds to run, in those 5-10 seconds the cursor utilizes SQL Server resources quite heavily. Thats not a good idea in a large production environment. Additionally, the more the of rows in the cursor to fetch and the more the number of executions of the procedure, the slower it will be. When I ran both processes (the cursor approach and then the table type approach) against a small sampling of vendors (5 vendors), the processing times where 260 ms and 60 ms, respectively. So the table type approach was roughly 4 times faster. But then when I ran the 2 scenarios against a much larger of vendors (84 vendors), the different was staggering 6701 ms versus 207 ms, respectively. So the table type approach was roughly 32 times faster. Again, the CURSOR approach is definitely the least attractive approach. Even in SQL Server 2005, it would have been better to create a CSV list or an XML string (providing the number of keys could be stored in a scalar variable). But now that there is a Table Type feature in SQL Server 2008, you can achieve the objective with a feature thats more closely modeled to the way developers are thinking specifically, how do we pass a table to a procedure Now we have an answer Hope you find this feature help. Feel free to post a comment. SQL Server, Power BI, and R by Sheri Gilley, Microsoft Senior Software Engineer SQL Server 2016 has reached general availability recently and one of the top new capabilities it features is SQL Server R Services 8212 advanced analytics in-database with the R language. R has also been integrated into Power BI. allowing you to create fully integrated visualizations with the power of the R language. In this blog post I will show an example using R in SQL Server to create a model and batch score testing data, then use Power BI Desktop to create visualizations of the scored data. Rather than moving your data from the database to an external machine running R, you can now run R scripts directly inside the SQL Server database 8211 train your model inside the database with the full power of CRAN R packages plus the additional features of speed and scalability from the RevoScaleR package. And once you have a model, you can perform batch scoring inside the database as well. But what do you do when it comes to visualizing this newly scored data How would you create an interactive experience that supports sharing and embedding in applications One great option is using PowerBi which gives you a quick and easy way to create visualizations that interact to help you explore your data. It also easily allows you to share your dashboards and reports, and you can embed the PowerBI visuals in your applications. And PowerBI can access your SQL data. Here is an example of model building and scoring for Fraud Detection performed in SQL Server. The data contains 200,000 online transactions, with a second spreadsheet containing information for 9000 known fraud transactions. This template details the steps to prepare data, create a model and perform batch scoring. The template includes R code inside stored procedures that allows you to train and save the model and score test data using the model. While this example covers a fairly small dataset, R Services can scale to billions of rows 8211 learn more about performance tuning for these operations here . Once the scoring is complete, you can access this data in either PowerBI or PowerBI Desktop to examine the scores. In PowerBI Desktop, use Get DatagtSQL Server Database, and you can connect directly to a database table or can add a query to access the data you wish to visualize. In this example the scored data is saved in the table sqlpredictscore with just the account Id and the predicted scores, so we will add a query to join this with the rest of the input data. This particular scoring was performed on test data so we also have the known values available to help us see how well the model has performed. We039ll use these values in a few different displays to learn more about the scoring of the test data. Note the first two bar charts 8211 the first shows the known values, the second shows the predicted values. Since we are predicting a rare event (in our sample, only 372 of the 58,924 transaction) it would be difficult to view counts on the bar heights. So instead, the bar heights here represent the average transaction amount, an important attribute to track when dealing with fraud. Right away we see that the average transactions are slightly higher in the fraud transactions than the non-fraud. While we can see some interesting information in this display, the real power (and fun) of Power BI is in the interactions. When you click on a bar in the graph, the rest of the display is filtered by that selection. For example, click on the first bar to display only the transactions predicted as fraud in all the other displays: Likewise, click on the first bar of the second graph to view the displays for the 372 known fraud transactions. In the first barchart the light bars show all transactions, while the darker bars in the middle now show just the fraud transactions. Note from the table that the miss-classified non-fraud transactions represent just 17 cases, while 355 cases were correctly classified In both instances, the average amount for fraud transactions are higher than the average transaction amounts for all data. In Power BI Desktop, you can also create visualizations with R directly in the report 8211 in this example I039ve used R to create both the Box amp Whisker plot and the Density Plot using trellis. For example: The integration of R into SQL Server 2016 and Power BI makes it easy for you to create and share rich visualizations with advanced insights and predictions for your business use-case. Never miss an update Subscribe to R-bloggers to receive e-mails with the latest R posts. (You will not see this message again.)Customers Rate BI Vendors by Cost Gartner, one of the worlds most influential Information Technology analysts, has published new reports about the costs of business intelligence platforms for 25 leading suppliers. Gartner rispetto venditori su elementi di costo come la media implementazione, licenza e hardware. Principali risultati i costi di implementazione possono variare da tanto quanto il 100 dei costi di licenza iniziali più piccole implementazioni a circa 60 di costi di licenza a quelli più grandi. La media di tutte le dimensioni di implementazione equivale a circa 80. La business intelligence (BI) piattaforma di usabilità (in particolare per gli sviluppatori BI), il livello di integrazione tra i componenti della piattaforma, il livello di qualità del prodotto e la complessità delle migrazioni sono tutti fattori che influenzano costi di implementazione e fatica così come raggiungimento di vantaggi di business. Prendere in considerazione questi fattori, oltre a costare nella vostra decisione di selezione del fornitore. Facilità d'uso (sia per gli sviluppatori e gli utenti aziendali) di una particolare piattaforma espande la complessità di analisi che gli utenti possono eseguire in proprio e l'ampiezza delle caratteristiche del prodotto utilizzato, riducendo al contempo i costi di implementazione. 1. Introduzione L'indagine di 1.364 professionisti in tutto il mondo BI ha rilevato che il costo, pur non essendo un top criteri, continua ad essere un fattore significativo nelle loro decisioni di acquisto. Da colloqui con i clienti, la maggior parte dei capi di BI soprattutto equiparare il costo di una piattaforma di BI con quello che spendono in costi di licenza. Mentre i costi di licenza sono spesso i tipi più visibili di costi, in realtà, costi di licenza, manutenzione, hardware e di implementazione combinati rappresentano meno del 30 del costo totale di tre anni di una piattaforma di BI. costi di implementazione, in particolare, possono variare da tanto quanto il 100 dei costi di licenza iniziali più piccole implementazioni a circa 60 di costi di licenza a quelli più grandi. In un contesto più ampio dei costi, costi iniziali di implementazione rappresentano il 5 a 10 di costi totali di tre anni la piattaforma BI di proprietà (BIPOC), a seconda delle dimensioni distribuzione e se non sviluppatori utenti aziendali sono inclusi nel calcolo BIPOC. Tabella 1. Tipo Venditore: Categorie di BI Platform Products Si noti che entrambi i fornitori di software-as-a-service, la nicchia vendor AltoSoft e InetSoft, e IBM Cognos 10 non ha avuto punti di dati sufficienti in tutta licenza, manutenzione licenza, hardware o manutenzione hardware categorie in una qualsiasi delle singole categorie di conteggio utente da includere in questa ricerca. leader di BI possono utilizzare questi risultati per valutare il costo delle piattaforme di BI stanno prendendo in considerazione, ma non dovrebbero concentrarsi esclusivamente sul costo. L'analisi costi-benefici, che include una valutazione di adattamento funzionale con i requisiti, l'usabilità per promuovere l'adozione e una valutazione dei vantaggi di business dovrebbe essere anche pezzi critici del equazione decisione di acquisto. E 'maldestro di investire in software a basso costo solo perché è poco costoso. Se non soddisfa i requisiti di business e di usabilità, che raggiungerà l'adozione limitata e non riuscirà a fornire vantaggi di business attesi. 2. 2. Attuazione dei costi per l'utente contare su, costi medi iniziali di implementazione (vedi figure 1 e 2), come quelli per i consulenti esterni e integratori di sistemi, può rappresentare il meno 60 del costo di licenza nei più grandi distribuzioni (o un media di 143 per utente), per quanto più 100 di costo di licenza in quelle più piccole (o una media di 3.038 per utente). Come tale, l'implementazione iniziale rappresenta un fattore significativo nel costo totale e deve essere procurato e gestito nel modo più rigoroso i costi di licenza. Figura 1 . Costo Medio Attuazione per utente (Dollari) N 504 implementazione Grafico costo rappresenta le percezioni dei clienti e non Gartners opinione Figura 2. medio totale Attuazione Costo per Grandezza Deployment (dollari) 2.1 fattori che influenzano Attuazione Costi I risultati dell'indagine implicano un collegamento tra i seguenti: Integrazione e facilità la qualità dei prodotti di utilizzo per gli sviluppatori, l'integrazione della piattaforma e costi di implementazione per facilità d'uso di utilizzo sembra tradursi in costi di implementazione più bassi, in parte perché facile da usare strumenti consentono agli sviluppatori IT e altri autori di BI di sviluppare contenuti di BI più rapidamente. Permette anche di più utenti business con meno competenze tecniche per creare i propri report e analisi, risparmiando così i costi sostenuti da amministrazioni IT specialisti per progettarli. La figura 3 mostra ogni punteggio di qualità fornitori del prodotto sull'asse X, la loro facilità di utilizzo per gli sviluppatori punteggio sull'asse Y, mentre la dimensione del punto rappresenta il costo medio di esecuzione per utente. Il colore arancione dot è al di sopra blu media è sotto la media mostra il punteggio medio integrazione della piattaforma (vedi nota 1). I dati mostrano che i venditori con un forte la facilità d'uso per gli sviluppatori, di alta qualità del prodotto e un buon grado di integrazione delle piattaforme tendono ad avere bassi costi di implementazione medi per utente. In generale, la facilità di utilizzo (per gli sviluppatori) è in parte una funzione di integrazione della piattaforma di BI e di funzioni di produttività per gli sviluppatori della piattaforma BI (in particolare per l'intera gamma di semplice per tipi complessi di analisi). Bene piattaforme integrate hanno meno piattaforma parti in movimento e hanno integrato strumenti utente, piuttosto che più interfacce utente, che tendono a richiedere meno di formazione anche per i diversi gruppi di utenti. In conclusione rete, le piattaforme che consentono lo sviluppo di contenuti più facilmente tendono ad avere bassi costi di implementazione per utente. Figura 3. Qualità del prodotto contro la facilità di sviluppo vs costo medio Attuazione Per User vs. media Integrazione Score N 504 implementazione costo Facilità di utilizzo per gli sviluppatori è segnato su una scala da 1 a 7, in cui un punteggio di 1 a 2 povero, 3 a 5 medio, e da 6 a 7 eccezionale. La qualità del prodotto è ottenuto su una scala da 1 a 7, in cui il punteggio di 1 a 2 poveri, da 3 a 5 medio, e da 6 a 7 eccezionale. Ripartizione integrazione: vedi nota 1 per il calcolo. I puntini arancioni sono al di sopra punteggi medi di integrazione i punti blu rappresentano di seguito i punteggi di integrazione media. Il costo medio per utente implementazione è la media tra i formati di distribuzione. Grafico rappresenta le percezioni dei clienti e non Gartners opinione. I risultati dell'indagine suggeriscono anche che la facilità di utilizzo (sia per gli sviluppatori e consumatori) di una particolare piattaforma di colpisce la complessità degli utenti di analisi in grado di eseguire in proprio, così come i costi di implementazione e l'ampiezza di funzionalità del prodotto utilizzato. Le imprese tendono ad usare piattaforme di BI con i punteggi più alti sulla facilità d'uso per una più ampia gamma di attività (ad esempio, reporting, analisi e dashboard ad hoc), piuttosto che per una singola funzione. Figura 4 mostra ogni prodotti compositi punteggio facilità d'uso rispetto a complessità dell'analisi condotta dagli utenti. La dimensione della bolla rappresenta il costo medio di esecuzione per utente. Bolle arancioni rappresentano le piattaforme con sopra l'ampiezza media di utilizzo di funzione, mentre bolle blu sono al di sotto della media dello studio. Gli utenti al di fuori degli analisti elettriche tradizionali adottano strumenti intuitivi più facilmente e per più funzioni. Inoltre, la facilità d'uso riduce i costi di formazione e gestione del cambiamento. Ciò è evidente nei risultati di strumenti di rilevamento dati come Tableau, che hanno sopra punteggi medi facilità d'uso, pur permettendo gli utenti di queste piattaforme per condurre i tipi più sofisticati di analisi. Questa facilità paradosso uso combinato con il supporto per l'analisi complessa ha dato loro slancio nel mercato e ha causato fornitori tradizionali per tentare di imitare il loro successo con offerte simili. Una serie di fattori guidare la facilità d'uso: Molte offerte strumento di scoperta di dati (come QlikView, Tableau e Tibco Spotfire) non necessitano di un tradizionale IT modellato strato semantico anche se essi offrono componenti di dati riutilizzabili opzionali e metadati. Questi strumenti forniscono funzionalità facili da usare per gli analisti di business di accesso, si fondono, mash up e manipolare i dati con assistenza IT minimo o per l'IT di diventare più rapidamente contenuti rispetto agli approcci tradizionali. Questo approccio riduce i costi di implementazione e manutenzione associati a un livello semantico, ma può aumentare il potenziale di creazione personale, gruppo di lavoro o silos dipartimentali, che può costare di più in termini di livello di impegno per l'IT di gestire dal punto di vista della governance. Intuitivi strumenti di authoring di contenuti di BI includono un ambiente di interfaccia utente e progettazione grafica, e out-of-the-box di oggetti e maghi, che riducono la codifica richiesta per tutti i livelli di complessità analitica. Widely available skills make it easier and often less costly to develop analytic content (certainly than for hard-to-find skills). Figura 4. Facilità d'uso vs. complessità dell'analisi vs. costo medio Attuazione per User vs. diffusione dell'utilizzo N 504 implementazione costo Larghezza di utilizzo del prodotto punteggio è la somma delle percentuali di attività dell'utente attraverso reporting, analisi ad hoc (tutti i livelli di complessità), cruscotti , scorecard e analisi predittiva per ciascun fornitore. puntini arancioni rappresentano un punteggio superiore alla media, mentre i puntini blu rappresentano un punteggio inferiore alla media in ampiezza di utilizzo. Composito facilità di utilizzo punteggio è una misura combinata di facilità d'uso per utenti business e facilità d'uso per gli sviluppatori, hanno segnato su una scala da 1 a 7, in cui il punteggio di 1 a 2 poveri, da 3 a 5 medio, e 6 7 eccezionale. complessità composito di analysisusage è un punteggio medio ponderato in base a percentuale di intervistati che segnalano l'uso della piattaforma. Le attività sono ponderati come segue: la visualizzazione dei report statici 1, il monitoraggio delle prestazioni tramite una scheda di valutazione 1, la visualizzazione dei report con parametri 2, facendo semplice analisi ad hoc 3, l'esplorazione e l'analisi dei dati di 4 interattivo, facendo moderatamente complesso da complesse analisi ad hoc 5, utilizzando predittiva analisi modelli di data mining Andor 5. costo medio implementazione per utente è la media tra i formati di distribuzione. Grafico rappresenta le percezioni dei clienti e non Gartners opinione. Prodotti con minore complessità della migrazione tendono a realizzare sopra la media benefici di business e ridurre i costi di implementazione per utente. La Figura 5 mostra i punteggi migrazione complessità rispetto ai costi di implementazione per utente, mentre il colore del punto (arancione è al di sopra blu media è al di sotto) mostrano benefici medi aziendali conseguiti dal prodotto. Con l'eccezione di Alteryx, Quiterian, Tibco Spotfire, Quiterian e Prognoz, questi fornitori tendono anche ad avere sotto dei costi medi di implementazione per utente. Gartner ha anche riferito che i loro intervistati valutato Tableau come i più bassi della complessità della migrazione, pur mantenendo uno dei punteggi più bassi su costo medio di attuazione per utente. Questo è mostrato nella Figura 5. Figura 5. La migrazione Complessità, Attuazione costo per utente e Benefici N 504 di implementazione benefici costi commerciali punteggio: vedi nota 2 per la complessità di calcolo migrazione è calcolato su una scala da 1 a 4, dove 1 estremamente semplice 2 semplici 3 alquanto complessa e 4 estremamente complesso. Il costo medio per utente implementazione è la media tra distribuzione taglie rappresenta le percezioni dei clienti e non Gartners opinione. 3. Licenza e hardware di costo in evidenza organizzazioni considerano spesso soluzioni piattaforma alternativa, come quelli di Microsoft e fornitori open-source, credendo loro di offrire costi di licenza inferiori. Tuttavia, i conti di prezzo di licenza per solo una piccola frazione del costo totale di proprietà, e il prezzo di licenza basso non sempre si traduce in costi altrettanto bassi piattaforma di Business Intelligence di proprietà (BIPOC) nel corso del tempo, né il raggiungimento di benefici di business desiderati. Quattro fattori hanno il più grande effetto sul costo delle licenze software e costi hardware: modelli di pricing vendor, confezione del prodotto, la scalabilità del prodotto e le dimensioni di distribuzione. Per utente costi di licenza scendono sostanzialmente come dimensioni di implementazione salgono. Ciò è dovuto al implementazioni che sono tipicamente caratterizzati da una maggiore percentuale di spettatori meno costosi agli autori di contenuti, più modelli di pricing per utente economicamente efficienti e una maggiore attualizzazione dei prezzi come volumi di utenti aumentano. Quando si valutano i costi di piattaforme di BI, estendere la vostra analisi di là di costi di licenza e hardware iniziali di includere i costi di implementazione e di amministrazione sviluppo in corso, dal momento che questi costituiscono la stragrande maggioranza del totale dei costi di BI piattaforma di proprietà. Valutatori di piattaforme di BI non dovrebbero concentrarsi esclusivamente sul costo come criterio di decisione primario. Equilibrio alcuna considerazione dei costi con i requisiti funzionali, prevista adozione e benefici di business. strumenti a basso costo che non soddisfano i requisiti non fornire i benefici di business attesi. Essere altrettanto rigorosi nel processo di selezione dei fornitori di servizi, come i costi di implementazione costituiscono una componente considerevole (tra il 60 e il 100 di costo di licenza a seconda delle dimensioni distribuzione) del costo complessivo. Per qualsiasi distribuzione, cercare di massimizzare il numero di persone che usano la piattaforma di BI, come ad esempio combinando progetti per aumentare il volume e sconti, e allontanarsi da modelli di pricing per utente per ridurre i costi per utente, se possibile. Inoltre, fattore di futura espansione nel valutare il dimensionamento hardware. 3.3 Licenza e hardware evidenzia il costo della qualità dei prodotti favorevole, facilità di sviluppo, costi di implementazione e costi di integrazione non sono il quadro completo. E 'importante valutare i costi iniziali di licenza e hardware. Gartner valutato Tableau come avere sopra punteggi medi delle prestazioni e tra il costo più basso licenza per utente. La figura di sotto dei costi di licenza medio per utente (dollari) rispetto Performance Score mostra che. (Si noti che il punteggio delle prestazioni è definita dalla velocità del tempo di risposta alle query.) 4. Costi di implementazione per tipo di fornitore e prodotto una vista di alto livello dei costi medi di implementazione rispetto a dimensioni di distribuzione per tipo di fornitore e spettacoli di prodotto che i venditori hanno la più grande e più costosa implementazioni (vedi figura 6). Questa visualizzazione mostra che solo una manciata di fornitori LogiXML, Actuate BIRT, Tableau e Jaspersoft hanno clienti sia sopra i formati di distribuzione media e al di sotto dei costi medi di implementazione. Microsoft è l'unico fornitore con un numero medio di utenti al di sotto riportati rispondere alla domanda dei costi, ma soprattutto costi medi realizzazione totale. In generale, i venditori di nicchia tendono ad avere tra i più piccoli formati di distribuzione media (valori anomali in questo senso sono arcplan, LogiXML e Prognoz) e costi di implementazione corrispondentemente piccoli, mentre megavendors (con l'eccezione di Microsoft, i cui clienti rispondendo alla domanda costo sul sondaggio tendevano ad essere più piccoli) e le grandi indipendenti tendono ad avere sopra i formati di distribuzione in media e, soprattutto, i costi medi di implementazione, anche se i rapporti e rango di queste misure variano ampiamente tra i fornitori specifici. Figura 6. I costi medi di implementazione Versus distribuzione Size dal distributore tipo di prodotto e N 504 costi di implementazione Il costo medio attuazione è la media tra i formati di distribuzione. Dimensione media di distribuzione viene calcolato per i partecipanti al sondaggio che anche fornito informazioni sui costi di implementazione. Le dimensioni medie di distribuzione per ciascun fornitore per l'indagine nel suo complesso possono variare da questo numero in quanto questi intervistati sono un sottoinsieme del sondaggio globale. 5. Conclusione costi di implementazione per utente diminuisce notevolmente al crescere della dimensione distribuzione. I fornitori con molto grandi implementazioni tendono ad avere distorto media una riduzione dei costi per utente di implementazione, mentre i venditori con piccole implementazioni media tendono ad avere distorto medi più elevati costi per utente. Nel valutare i venditori su BIPOC, bilanciare ogni considerazione costi con i requisiti funzionali, prevista adozione e benefici di business. strumenti a basso costo che non soddisfano i requisiti non fornire i benefici di business attesi. Related Posts

No comments:

Post a Comment