Skaff is een incubator
voor Artefact technische producten
De technische leveringsstandaarden verhogen.
Commercieel succes verbeteren.
artefact consolideren als toonaangevende data.
Skaff biedt open source kennis en inzetbare oplossingen om fundamentele technische problemen op te lossen
Er is een aanzienlijke technische overhead voordat data en AI projecten hun waarde kunnen aantonen.
Skaff erkent dit fundamentele werk en bouwt acceleratoren van hoge kwaliteit om het bouwen en implementeren te stroomlijnen, zodat teams zich kunnen richten op werk dat waarde toevoegt.
Kennis
Pakketten
Een vliegende start
Versnel je kennismaking met een technologie of expertise door een van onze kennispakketten te doorlopen.
Wat zit er in de doos?
Kennispakketten bevatten een hands-on van 45 minuten,
en onze collectieve overtuigingen over hoe
het onderwerp te benaderen.
Probeer er een
Implementeerbare pakketten
Snijd door de boilerplate heen
Versnel de ontwikkeling en industrialisatie van data projecten door gebruik te maken van open source software.
Hoe ziet het eruit?
Deze versnellers kunnen Python-pakketten zijn,
Terraform modules, Git repository sjablonen,
dashboard wireframes en nog veel meer.
Probeer er een
Versnel uw Gen AI app met behulp van
onze Langchain industrialisatiekit.
Succesverhalen
Privé vermogen
Door gebruik te maken van de GenAI-versnellers van Skaff toonde een team van Artefact al snel aan dat er veel tijd kon worden bespaard door ongestructureerde data te indexeren en te doorzoeken op fusies en overnames.
Analisten konden vragen stellen over due diligence documenten, marktonderzoeken, interviews met experts en andere reports in natuurlijke taal. Hierdoor kan informatie gemakkelijk worden vergeleken, wat de productiviteit sterk verbetert.
Greenlit om op te schalen naar 1500 gebruikers.
Consumentenpracht
Bij het bouwen van een data platform om marketing use cases te ondersteunen, versnelde het gebruik van Skaff accelerators de implementatie van data lakes, data pipelines, toegangscontrole, finops en data governance.
Nu dit in enkele dagen was afgehandeld in plaats van weken of maanden, konden de ingenieurs van data zich richten op het bouwen van data producten en het bedienen van strategische use cases voor het merk.
RETAIL
Voor het analyseren van data streaming van verkooppunten in een use case voor fraudedetectie werd de dbt-serveraccelerator van Skaff gebruikt voor het implementeren en plannen van de analysepijplijn.
Hierdoor kon het Artefact team snel inzicht krijgen in fraudedetectie en andere incidenten.
Dankzij deze versneller konden ze weken aan ontwikkelingstijd besparen en zich concentreren op hun product.
Medium blogartikelen van onze technische experts
Het tijdperk van generatieve AI: Wat verandert er?
De overvloed en diversiteit van reacties op ChatGPT en andere generatieve AI's, of ze nu sceptisch of enthousiast zijn, tonen de veranderingen die ze teweegbrengen en de impact...
Hoe Artefact erin slaagde een eerlijk maar eenvoudig carrièresysteem voor software-ingenieurs te ontwikkelen
In de dynamische en steeds veranderende technologiesector van vandaag kan een carrièrepad vaak aanvoelen als een kronkelend pad door een dicht woud van mogelijkheden. Met snelle...
Waarom je LLMOps nodig hebt
Dit artikel introduceert LLMOps, een gespecialiseerde tak die DevOps en MLOps samenvoegt om de uitdagingen van Large Language Models (LLM's) aan te gaan...
De kracht van LangChain Expression Language (LCEL) ontketenen: van proof of concept naar productie
LangChain is in minder dan een jaar uitgegroeid tot een van de meest gebruikte Python-bibliotheken voor interactie met LLM's, maar LangChain was vooral een bibliotheek...
Hoe we de reconciliatie van profiel-ID's afhandelden met behulp van Treasure Data Unification en SQL
In dit artikel leggen we de uitdagingen van ID-reconciliatie uit en demonstreren we onze aanpak om een eenduidig profiel-ID te maken in het Customer Data Platform,...
Snowflake's Snowday '23: Snowballing into Data Wetenschappelijk succes
Terwijl we nadenken over de inzichten die zijn gedeeld tijdens het 'Snowday'-evenement op 1 en 2 november, is er een stroom van spannende onthullingen over de toekomst van...
Hoe we software engineers interviewen en aannemen bij Artefact
We bespreken de vaardigheden waarnaar we op zoek zijn, de verschillende stappen van het proces en de beloften die we aan alle kandidaten doen.
Het coderen van categorische kenmerken in voorspellingen: doen we het allemaal verkeerd?
We stellen een nieuwe methode voor om categorische kenmerken te coderen die specifiek is afgestemd op voorspellingstoepassingen.
Hoe we een eenvoudig bewakingssysteem voor wilde dieren op Google Cloud implementeerden
We hebben samengewerkt met Smart Parks, een Nederlandse organisatie die geavanceerde sensoroplossingen biedt voor het behoud van bedreigde wilde dieren...
Stabiele diffusie implementeren op Vertex AI
Dit artikel biedt een handleiding voor het implementeren van het model Stable Diffusion, een populair model voor het genereren van afbeeldingen, op Google Cloud met behulp van Vertex AI.
Alles wat je moet weten om aan de slag te gaan met Vertex AI Pipelines
Presentatie van een tool die op praktische wijze onze ervaring demonstreert met het gebruik van Vertex AI Pipelines in een project dat in productie draait.
dbt coalesce 2022 recapitulatie
De editie van dbt coalesce vond plaats in New Orleans. En we leerden een ton over het analytics engineering landschap.
Snowflake toegangscontrole op schaal
Snowflake | Hoe we het beheer van een account met meer dan 50 gebruikers automatiseerden en tegelijkertijd voldeden aan de data governancestandaarden
Iets voorspellen dat nooit is gebeurd: hoe we de winstgevendheid van promoties in het verleden hebben geschat
Een gids voor het gebruik van contrafeitelijke prognoses om de kosteneffectiviteit van vroegere in-store promoties in de detailhandel te schatten.
Bayesiaanse mediamixmodellering met beperkte data
Hoe kan de impact van kanalen tussen Verkoop en Marketing worden ingeschat? De Media Mix Modeling is de oplossing, Statistieken zijn de belangrijkste bron.
Het meten van de CO2eq impact van uw Python Notebook (Azure ML)
Na mijn 1e verhaal over codeoptimalisatie om mijn rekentijd met 90% te verminderen, was ik geïnteresseerd in de CO2eq...
Een manifest om ML Engineers vanaf dag 1 op te nemen in uw data wetenschapsprojecten
Jeffrey Kane, Senior Data Scientist, legt uit waarom ML Engineer vanaf de eerste dag deel moet uitmaken van uw wetenschappelijke data projecten.
Hoe ziet de toekomst van data engineering eruit?
Het vakgebied en de toekomst van data engineering evolueert snel. Ontdek 3 belangrijke trends die ik de komende jaren prominent zie worden.
Is Facebook Profeet geschikt om goede voorspellingen te doen in een real-world project?
Deze gids zal u helpen te bepalen of Facebook Prophet al dan niet geschikt is voor uw prognoseproject.
String filters in pandas: je doet het verkeerd
Stringfilters in Pandas moet u vermijden, omdat de scalar_compare-operator tot prestatieproblemen leidt.
Hoe vergelijk je snel twee datasets met behulp van een generieke & krachtige SQL query
Een stap-voor-stap handleiding om het vergelijken van datasets te vergemakkelijken via een kant-en-klaar Structured Query Language sjabloon
Customer Propensity scoren met behulp van Machine Learning-modellen in Google Analytics Data
Een deep-dive over hoe we state of the art aangepaste machine learning-modellen hebben gebouwd om de neiging van klanten om een product te kopen in te schatten met behulp van Google Analytics...