-
loading
Solo con l'immagine

Data modeling


Elenco delle migliori vendite data modeling

EXPERT DATA MODELING WITH POWER BI: GET THE BEST OUT OF POWER BI BY BUILDING OPTIMIZED DATA MODELS FOR REPORTING AND BUSINESS NEEDS
    [Di più]
    Vedi prezzi in Amazon
    DATA UFFICIO DU162570000 BLOCCHI RICEVUTE GENERICHE DATA UFFICIO, 1 CONFEZIONE DA 5 PEZZI
    • Prodotto di qualità
    • Prodotto del brand Data Ufficio
    • Divertente e colorato
    [Di più]
    Vedi prezzi in Amazon
    DATA LOGGER USB DIGITALE TERMOMETRO MISURATORE DI UMIDITÀ TEMPERATURA PRESSIONE ATMOSFERICA IGROMETRO - 40 ~ 80 °C 0-100% RH(UT330A)
    • 【Alta qualità】 Il data logger USB è un registratore digitale con un microprocessore a bassissima potenza basato su un modulo di temperatura e umidità digitali ad alta precisione e un modulo di pressione atmosferica. IP67 impermeabile e antipolvere, utilizzando una custodia in plastica, può proteggere l'interfaccia USB.
    • 【Alta qualità】 Il data logger USB è un registratore digitale con un microprocessore a bassissima potenza basato su un modulo di temperatura e umidità digitali ad alta precisione e un modulo di pressione atmosferica. IP67 impermeabile e antipolvere, utilizzando una custodia in plastica, può proteggere l'interfaccia USB.
    • 【Multifunzione】 Il registratore dispone di memorizzazione automatica, trasmissione dati USB, gestione del PC e statistiche delle immagini. Temperatura di alta precisione ± 0,5 ° C, umidità ± 3% RH. Grande capacità di archiviazione di 60000 dischi, adatta per il rilevamento a lungo termine di temperatura, umidità e pressione dell'aria. Software per la gestione dei PC compatibile.
    • 【Alta precisione】 Il registratore di memoria soddisfa una vasta gamma di misurazioni di alta precisione e requisiti di monitoraggio e registrazione per la temperatura a lungo termine, l'umidità e la pressione atmosferica. Ricche funzioni di impostazione dell'utente, tra cui nome utente, soglia di allarme per alta e bassa temperatura, intervallo di campionamento, modalità di avvio, ecc.
    • 【Applicazione】 Lo strumento è potente, stabile nelle prestazioni e di alta precisione. È adatto per uso medico, trasporto, stoccaggio e altre occasioni, incluso supporto fisso e vite. Il mouse sull'immagine può visualizzare con precisione un determinato punto di dati. Consente all'utente di vedere i cambiamenti di temperatura, umidità e pressione durante il tempo di registrazione a colpo d'occhio.
    • 【Indicazione luminosa】 Indicatori: "REC" e "ALM". "REC" si illumina in verde per mostrare le condizioni di lavoro; "REC" si illumina in rosso per mostrare le condizioni della batteria; "ALM" si illumina in giallo per indicare la memorizzazione completa; "ALM" si illumina in rosso per avvertire la temperatura.
    [Di più]
    Vedi prezzi in Amazon
    Roma (Lazio)
    Data Scientist Per potenziamento del proprio team e per attività di consulenza specialistica, AC&D Technologies è alla ricerca di un Data Scientist con buone conoscenze Python per il lavoro in un team già operativo. Si richiede buona capacità di inserimento e di lavoro in team oltre che proattività nei task di sua responsabilità. Conoscenze necessarie: • Esperienza pregressa per analisi dati con python (pandas) su progetti svolti per un cliente (es: non progetti interni in ambito pre-processing, data modeling, ecc) per eseguire analisi dettate dalle esigenze di business in tempi contenuti (3-4 giorni) • Capacità di eseguire task in autonomia • Proattività Nice-to-have: • PySpark (concat, merge, shift, utilizzo delle windows, ecc.) Attività full time, Ibrida su Roma Disponibilità immediata (al più in 1 settimana, non oltre) Gli interessati, in possesso delle caratteristiche richieste, possono inviare il proprio cv in formato. Doc/.docx con l’autorizzazione al trattamento dei dati personali ai sensi della Legge 196/03. Inserzionista: Ac&d Technologies
    Vista prodotto
    Italia (Tutte le città)
    ESIS S.r.l., società di Consulenza Informatica e Sviluppo Software attiva dal 1989, ricerca un Data Analyst. ATTIVITÀ Inserita nel team Analytics del cliente, la risorsa selezionata si occuperà della raccolta, organizzazione e strutturazione di dati, provenienti dalle varie aree commerciali. In particolare, sarà incaricata della data cleaning delle varie fonti dati, nonché di individuare eventuali schemi e preparare le relative reportistiche. SEDE DI LAVORO Remoto (preferibilmente Milano). REQUISITI Precedente esperienza (almeno due anni) in mansioni simili. Forti competenze nell’uso di PowerBI e/o Looker Studio. Padronanza del linguaggio SQL. Capacità di Data Modeling strutturato. Gradita conoscenza di servizi Google Cloud Platform. Disponibilità a tempo pieno, immediata o a breve termine. Completano il profilo: Disposizione ad apprendere nuove tecnologie e metodologie; orientamento al cliente; buone capacità di problem identifing e problem solving. OFFERTA Offriamo contratti di assunzione (Tempo Determinato e Indeterminato) e una retribuzione commisurata alle esperienze e alle competenze del Candidato e in linea con il mercato del lavoro.
    Vista prodotto
    Italia (Tutte le città)
    Per potenziamento del proprio team e per attività di consulenza specialistica, AC&D Technologies è alla ricerca di un esperto Big Data. Il candidato dovrà affiancare di un team di tecnici che lavora su una piattaforma dati realizzata in ambiente cloud. Non gli saranno richieste attività operative (se non per poche eccezioni) e piuttosto parteciperà a call funzionali di raccolta requisiti e dovrà gestire ad alto livello di requisiti di business ed allinearsi con il team, oltre che fare consulenza al cliente per temi BigData quali Data Strategy e Data Modeling. E’prevista anche partecipazione a SAL con i referenti funzionali di progetto. È fondamentale una figura con esperienza pluriennale ed ampia su progetti Dati esplicitata già sul CV. Sede: Milano (dove il cliente ha sede) ma è valutabile anche in full-remote Impegno: full-time Partenza: Settembre Conoscenze necessarie: 1.Ottime esperienze in ambito BigData 2.Esperienze pregresse su clienti per progetti Data Warehouse / Data Lake / Data Mesh 3.Esperienze di modellazione dati (ad esempio per progetti Customer Data Platform) Nice-to-have: 4.Background tecnico 5.Conoscenza tecnologie cloud Gli interessati, in possesso delle caratteristiche richieste, possono inviare il proprio cv in formato.doc/.docx con l’autorizzazione al trattamento dei dati personali ai sensi della Legge 196/03.
    Vista prodotto
    Italia
    Big Data Engineer Il candidato ideale ha una seniority di almeno 2 anni di esperienza come data engineer. Istruzione: - Gradita Laurea in Ingegneria, Informatica, Statistica, Fisica o Matematica; Requisiti fondamentali: - Conoscenza di almeno uno tra i linguaggi di sviluppo Java, Scala o Python - Ottima conoscenza di tecniche di elaborazione distribuita Spark e tecnologie cloud computing - Conoscenza di tecniche di gestione DBMRS e linguaggio SQL - Conoscenza di soluzioni Hadoop, data base NoSQL, real-time computing, applicazioni e prodotti big data - Conoscenza di soluzioni Big Data in cloud SaaS o PaaS - Competenza nel design architetturale di soluzioni dati e software complessi; - Supportare/validare il design della soluzione da implementare; - Redigere documentazioni inerenti alla soluzione; - Competenze nell'acquisizione, manipolazione e selezione di dati raw a supporto del progetto; - Definire le linee guida di scelta, pulizia e validazione del dato; - Definire le linee guida di scelta, costruzione, validazione e monitoraggio degli algoritmi; - Definire le linee guida di sviluppo del software (libreria da utilizzare, metodologia di lettura/scrittura, memorizzazione). Requisiti valorizzanti il profilo: - Conoscenza di tecniche analitiche, utilizzo di database NoSQL, algoritmi (machine learning), real-time processing, Internet of Things, ETL, processi di ingestion e data modeling - Conoscenza dei principali tool di Analytics Front End (Qlik, SAP BO, Tableau, etc); - Il possesso di certificazioni in ambito Cloud Platform (es AWS, Azure, GCP); - Il possesso di certificazioni sulle tecnologie in ambito (es Cloudera/Hortonworks/MapR); - Conoscenza di architetture basate su microservizi (es Kubernetes, Docker, OpenShift); - Conoscenza JupyterLab. Competenze trasversali: - Ottime capacità di team working; - Elevata proattività; - Forte propensione al raggiungimento degli obiettivi; - Capacità di organizzare e pianificare il lavoro; - Rapida curva di apprendimento; - Ottime capacità di problem solving.
    Vista prodotto
    Italia
    Big Data Architect Il candidato ideale ha una seniority di almeno 3 anni di esperienza come data engineer o data architect Istruzione: - Gradita Laurea in Ingegneria, Informatica, Statistica, Fisica o Matematica Requisiti fondamentali: - Competenza nel design architetturale di soluzioni dati e software complessi; - Definizione e progettazione di architetture tecnologiche, con particolare riferimento ad architetture parallele e distribuite; - Progettazione e implementazione di infrastrutture Big Data, Business Intelligence; - Dimostrate capacità nel disegno e nella costruzione di soluzioni in ambito DWH, Big Data, Data Discovery e Analytics; - Esperienza sulle tecnologie Big Data (Hive, Impala, Spark, Cloudera, Scala, Hortonworks, Mongo DB) in ambito ETL e Data Integration (es Informatica, Oracle Data Integrator, Talend, IBM Datastage, etc.); - Conoscenze di modeling, Rdbms (Oracle, MSSQL, Data storage MAG), nosql (MongoDB, Couchbase, Riak, Azure, Google, Amazon, Neo4) e pattern integrativi; - Conoscenza delle tecnologie di streaming processing (Kafka, Flink, etc.); - Conoscenza delle fasi di Software Development Life Cycle e familiarità nell'uso di sistemi di Source Code & Versioning Control systems (es SVN, Git); - Conoscenza degli strumenti per la gestione dei metadata (es Atlas) - Buona conoscenza di sistemi Linux; - Redazione di specifiche di progetto. Requisiti valorizzanti il profilo: - Conoscenza dei principali tool di Analytics Front End (Qlik, SAP BO, Tableau, etc); - Il possesso di certificazioni in ambito Cloud Platform (es AWS, Azure, GCP); - Il possesso di certificazioni sulle tecnologie in ambito (es Cloudera/Hortonworks/MapR); - Conoscenza di architetture basate su microservizi (es Kubernetes, Docker, OpenShift); - Conoscenza JupyerLab. Competenze trasversali: - Ottime capacità di team working; - Elevata proattività; - Capacità di pianificazione e organizzazione; - Rapida curva di apprendimento; - Ottime capacità di problem solving.
    Vista prodotto
    Italia
    Il candidato ideale ha una seniority di almeno 2 anni nel ruolo. Istruzione: - Gradita Laurea in Ingegneria, Informatica, Statistica, Fisica o Matematica Requisiti fondamentali: - Buona conoscenza del dominio dell'Advanced Analytics (Data Mining, Machine Learning, Operations Research) per la strutturazione di strumenti a Supporto delle Decisioni; - Buona competenza di programmazione su Python, PySpark e nell'implementazione di funzioni da integrare in Spark; - Buona conoscenza dei più diffusi software statistici e di Machine Learning: Tensorflow, Keras, R, SparkMLib; - Ottime capacità analitiche; - Ottime capacità espositive degli output dell'analisi; - Ottima conoscenza e applicazione di metodologie di predictive modeling; - Capacità di analisi del problema di business del cliente e strutturazione di ipotesi di soluzione di analytics; - Competenza nella stesura di documentazione tecnica e reportistica; - Autonomia nell'utilizzo e gestione di database, relazionali e non (es. SQL server, MySQL, MongoDB); - Utilizzo di strumenti e librerie di Data Visualization/Exploration (es. QlikView, Tableau, Shap, ggplot2, D3.js). Competenze trasversali: - Buone capacità di team working; - Elevata proattività; - Forte propensione al raggiungimento degli obiettivi; - Capacità di organizzare il lavoro con metodo e nei tempi stabiliti; - Rapida curva di apprendimento; - Ottime capacità di problem solving; - Forte propensione alla ricerca e sperimentazione
    Vista prodotto
    Italia (Tutte le città)
    Rolleri Cultura d'Impresa ricerca e seleziona IB1208-BUSINESS ANALYST Per importante filiale commerciale di una multinazionale del settore packaging con sede in provincia di Piacenza -Laurea in materie scientifiche/informatiche, oppure in Economia o Business Administration; -Almeno 2 anni di esperienza nel ruolo o simile all'interno di un reparto vendite o marketing; -Competenze avanzate in data management, data modeling, data mining e data enrichment e cluster analysis; -Conoscenza dei più comuni software di analytics e di BI; -Conoscenza di tools di reporting e tecniche di data visualization; -Ottima capacità di esporre e comunicare chiaramente agli stakeholder interni / esterni i risultati del lavoro e aiutarli a prendere decisioni basate sulla corretta interpretazione dei dati; -Residenza in zona Piacenza/Pavia. ATTIVITA’ ASSEGNATE La risorsa inserita, riportando al Marketing Manager si occuperà di: -Lavorare a stretto contatto con il Marketing Manager per dare la priorità alle esigenze di business intelligence di vendita e marketing, identificando i migliori KPI e modelli e dashboard di valutazione dei clienti; -Stabilire e creare metodologie di reporting scalabili e intuitive; -Interpretare i dati, analizzare i risultati, identificare tendenze o modelli di dati complessi; -Collaborare tra le vendite e il marketing e l’IT come funzione di coordinamento centrale per garantire che il reporting BI sia diretto verso aree di opportunità di business; -Definire approcci per migliorare il business. È previsto inserimento a contratto a tempo indeterminato e retribuzione in linea con le competenze. Prego inviare candidature solo se in possesso dei requisiti necessari. I candidati ambosessi sono invitati a leggere l’informativa sulla privacy sul sito di Rolleri Cultura d’Impresa Srl.
    Vista prodotto
    Italia
    The Grimaldi Group is looking for: Oracle DBA Responsibilities: Responsible for the implementation, configuration, maintenance, security, and performance of critical RDBMS systems, to ensure the availability and consistent performance of our database systems. Provide troubleshooting and support to database-related alerts. Perform day-to-day management, patching, maintenance and backup of all databases. Perform database health monitoring and usage metrics analysis. Refine and automate processes, track issues, and document changes. Define, document, and deploy configuration management for disaster recovery processes. Job Requirement: Hands-on experience and in-depth knowledge of Oracle database administration and performance tuning. Experience with RMAN, Data Guard, GoldenGate. Ability to detect and troubleshoot database-related CPU, memory, I/O, disk space and other resource contention issues. Have proficiency with Linux and Windows Server. Ability to automate network database monitoring and application database implementation tasks. Oracle 12 multitenant architecture experience. Strong knowledge in data modeling/schema design in OLTP (Online Transactional Processing) environments. PL/SQL Experience with the ability to write stored procedures, triggers and query optimization. Highly self-motivated, proactive and result-oriented. Good verbal and written communication skill in English. Place of Work: Naples (Italy) / New Jersey (USA)
    Vista prodotto

    Pubblicare Annunci Gratuiti - comprare e vendere usato in Italia | CLASF - copyright ©2024 www.clasf.it.