A Skaff é uma incubadora
para Artefact produtos técnicos

Elevar os padrões de entrega técnica.
Melhorar o sucesso comercial.
Consolidar a artefact como líder data.

class="img-responsive

A Skaff fornece conhecimento de código aberto e soluções implementáveis para resolver problemas técnicos fundamentais

Há uma sobrecarga técnica significativa antes que os projetos data e AI possam demonstrar valor

A Skaff reconhece esse trabalho fundamental e cria aceleradores de alta qualidade para simplificar a criação e a implantação, permitindo que as equipes se concentrem no trabalho de valor agregado.

Conhecimento
Pacotes

Comece a correr

Acelere sua integração em uma tecnologia ou conhecimento especializado percorrendo um de nossos pacotes de conhecimento.

O que há na caixa?

Os pacotes de conhecimento incluem um treinamento prático de 45 minutos,
e nossas convicções coletivas sobre como
abordar o assunto.

Experimente um

Pacotes implementáveis

Elimine o clichê

Acelerar o desenvolvimento e a industrialização de projetos data usando software de código aberto disponível no mercado.

Qual é a aparência?

Esses aceleradores podem ser pacotes Python,
módulos Terraform, modelos de repositório Git,
wireframes de painéis de controle e muito mais.

Experimente um

Acelere seu aplicativo Gen AI usando
nosso kit de industrialização Langchain.

Histórias de sucesso

Patrimônio privado

Aproveitando os aceleradores GenAI da Skaff, uma equipe da Artefact demonstrou rapidamente a grande economia de tempo que poderia ser obtida por meio da indexação e consulta de data não estruturado para fusões e aquisições.

Os analistas puderam fazer perguntas sobre documentos de due diligence, estudos de mercado, entrevistas com especialistas e outros reports em linguagem natural. Isso permite o cruzamento de informações com facilidade, aumentando consideravelmente a produtividade.

Autorização verde para escalar até 1.500 usuários.

Beleza do consumidor

Ao criar uma plataforma data para dar suporte a casos de uso de marketing, o uso dos aceleradores da Skaff acelerou a implantação de data lakes, data pipelines, controle de acesso, finops e data governance.

Com isso resolvido em questão de dias, em vez de semanas ou meses, os engenheiros da data puderam se concentrar na criação de produtos data e atender a casos de uso estratégicos para a marca.

VAREJO

Para analisar o fluxo de data dos pontos de venda em um caso de uso de detecção de fraude, o acelerador de servidor dbt da Skaff foi usado para implantar e programar o pipeline de análise.

Isso permitiu que a equipe do Artefact obtivesse rapidamente insights sobre eventos de detecção de fraudes e outros incidentes

O fato de ter esse acelerador pronto para ser usado permitiu que eles reduzissem semanas do tempo de desenvolvimento e se concentrassem em seu produto.

Conheça a equipe do SKAFF

Alexis Vialaret
Robin Doumerc

Artigos de blog da mídia escritos por nossos especialistas em tecnologia

A era do generativo AI: O que está mudando

A era do generativo AI: O que está mudando

A abundância e a diversidade de respostas ao ChatGPT e a outras IAs generativas, sejam elas céticas ou entusiasmadas, demonstram as mudanças que elas estão provocando e o impacto...

Como a Artefact conseguiu desenvolver um sistema de carreira justo e simples para engenheiros de software

Como a Artefact conseguiu desenvolver um sistema de carreira justo e simples para engenheiros de software

No atual setor de tecnologia, dinâmico e em constante evolução, uma carreira pode parecer um caminho sinuoso em meio a uma densa floresta de oportunidades. Com a rápida...

Por que você precisa de LLMOps

Por que você precisa de LLMOps

Este artigo apresenta o LLMOps, um ramo especializado que mescla DevOps e MLOps para gerenciar os desafios apresentados pelos modelos de linguagem grandes (LLMs)...

Liberando o poder da LangChain Expression Language (LCEL): da prova de conceito à produção

Liberando o poder da LangChain Expression Language (LCEL): da prova de conceito à produção

A LangChain se tornou uma das bibliotecas Python mais usadas para interagir com LLMs em menos de um ano, mas a LangChain era principalmente uma biblioteca...

Como lidamos com a reconciliação de ID de perfil usando o Treasure Data Unification e SQL

Como lidamos com a reconciliação de ID de perfil usando o Treasure Data Unification e SQL

Neste artigo, explicamos os desafios da reconciliação de IDs e demonstramos nossa abordagem para criar um ID de perfil unificado na plataforma Customer Data , especificamente...

Snowflake's Snowday '23: Snowballing into Data Science Success

Snowflake's Snowday '23: Snowballing into Data Science Success

Ao refletirmos sobre as percepções compartilhadas durante o evento "Snowday", realizado nos dias 1º e 2 de novembro, uma cascata de revelações empolgantes sobre o futuro da...

Como entrevistamos e contratamos engenheiros de software na Artefact

Como entrevistamos e contratamos engenheiros de software na Artefact

Explicamos as habilidades que estamos procurando, as diferentes etapas do processo e os compromissos que assumimos com todos os candidatos.

Codificação de características categóricas na previsão: estamos todos fazendo isso errado?

Codificação de características categóricas na previsão: estamos todos fazendo isso errado?

Propomos um novo método para codificar recursos categóricos especificamente adaptados para aplicativos de previsão.

Como implantamos um sistema simples de monitoramento da vida selvagem no Google Cloud

Como implantamos um sistema simples de monitoramento da vida selvagem no Google Cloud

Colaboramos com a Smart Parks, uma empresa holandesa que fornece soluções avançadas de sensores para conservar a vida selvagem ameaçada...

Implementando o Stable Diffusion no Vertex AI

Implementando o Stable Diffusion no Vertex AI

Este artigo fornece um guia para a implantação do modelo Stable Diffusion, um modelo popular de geração de imagens, no Google Cloud usando o Vertex AI.

Tudo o que você precisa saber para começar a usar o Vertex AI Pipelines

Tudo o que você precisa saber para começar a usar o Vertex AI Pipelines

Apresentação de uma ferramenta que demonstra, na prática, nossa experiência com o uso do Vertex AI Pipelines em um projeto em execução na produção.

dbt coalesce 2022 recapitulação

dbt coalesce 2022 recapitulação

A edição da dbt coalesce estava ocorrendo em Nova Orleans. E aprendemos uma tonelada sobre o panorama da engenharia analítica.

Controle de acesso Snowflake em escala

Controle de acesso Snowflake em escala

Snowflake | Como automatizamos o gerenciamento de uma conta com mais de 50 usuários e, ao mesmo tempo, cumprimos os padrões de governança da data

Previsão de algo que nunca aconteceu: como estimamos a rentabilidade das promoções passadas

Previsão de algo que nunca aconteceu: como estimamos a rentabilidade das promoções passadas

Um guia sobre como usar a previsão contrafactual para estimar a relação custo-benefício de promoções passadas na loja no varejo.

Modelagem bayesiana de mix de mídia com limitações data

Modelagem bayesiana de mix de mídia com limitações data

Como estimar o impacto dos canais entre Vendas e Marketing? A Media Mix Modeling é a solução, as estatísticas são o principal recurso.

Medindo o impacto de CO2eq de seu Caderno Python (Azure ML)

Medindo o impacto de CO2eq de seu Caderno Python (Azure ML)

Depois de minha primeira história sobre otimização de código para reduzir meu tempo de computação em 90%, fiquei interessado em saber o impacto de CO2eq economizado por minha...

Um manifesto para incluir engenheiros de ML em seus projetos científicos data desde o primeiro dia

Um manifesto para incluir engenheiros de ML em seus projetos científicos data desde o primeiro dia

Jeffrey Kane, cientista sênior da Data , explica por que o engenheiro de ML deve estar em seus projetos científicos da data desde o primeiro dia.

Como será o futuro da engenharia data ?

Como será o futuro da engenharia data ?

O campo e o futuro da engenharia de data estão evoluindo rapidamente. Descubra as três principais tendências que vejo se tornarem proeminentes nos próximos anos.

O Profeta do Facebook é adequado para fazer boas previsões em um projeto do mundo real?

O Profeta do Facebook é adequado para fazer boas previsões em um projeto do mundo real?

Este guia o ajudará a descobrir se o Profeta do Facebook é apropriado ou não para seu projeto de previsão.

Filtros de cadeia de caracteres no pandas: você está fazendo isso errado

Filtros de cadeia de caracteres no pandas: você está fazendo isso errado

Os filtros de cadeia de caracteres no Pandas são algo que você deve evitar, pois o operador scalar_compare leva a gargalos de desempenho.

Data Desafios de ML para 2022

Data Desafios de ML para 2022

Principais tendências de 2021 data e ML... e o que elas significam para 2022

Como comparar rapidamente dois conjuntos de dados usando uma consulta SQL genérica e poderosa

Como comparar rapidamente dois conjuntos de dados usando uma consulta SQL genérica e poderosa

Um guia passo-a-passo para facilitar a comparação de conjuntos de dados através de um modelo de linguagem de consulta estruturada pronto para uso

Pontuação da propensão do cliente usando modelos de aprendizado de máquina no Google Analytics Data

Pontuação da propensão do cliente usando modelos de aprendizado de máquina no Google Analytics Data

Um mergulho profundo em como criamos modelos de aprendizado de máquina personalizados de última geração para estimar a propensão do cliente a comprar um produto usando o Google Analytics...

O caminho para desenvolver um modelo de previsão de demanda de alto desempenho - Parte 4

O caminho para desenvolver um modelo de previsão de demanda de alto desempenho - Parte 4

Até agora, falamos principalmente sobre a previsão de produtos regulares que estão nas prateleiras há algum tempo. Mas e quanto aos produtos que...