Blogi
Miten Brex rakentaa tekoäly ensisijaisen toimintaorganisaationMiten Brex rakentaa tekoäly ensisijaisen toimintaorganisaation">

Miten Brex rakentaa tekoäly ensisijaisen toimintaorganisaation

by 
Ivan Ivanov
11 minutes read
Blogi
Joulukuu 22, 2025

Recommendation: establish an AI-first Operations Office led by a senior c-level executive to own the transformation and align with management goals. This office will define data contracts, own the AI-enabled playbooks, and coordinate across teams.

In the early phase, map core activities across finance, risk, IT, and customer services, and design AI copilots that enable frontline teams to act faster. By design, this work is enabled with clear ownership, measurable outcomes, and a focus on eliminating expensive manual steps that slow feedback and decision cycles. This approach yields deeper insights as data flows improve.

according to our framework, the first 90 days deliver a minimal viable operating model: AI-powered dashboards, incident alerts, and cards that distill complex decisions into actionable steps. This shift reflects how teams learn from real data and adjust in real time, while senior and mid-level management gain visibility into progress and evolving bottlenecks.

Design the operating model around AI-enabled services rather than isolated tools. Create practical question cards and internal decision cards that guide actions, improving speed and accountability. A small governance board keeps scope tight and ensures responsible AI usage.

Be mindful of cost: the most expensive mistake is deploying without evidence. The first thought should be a phased experiments plan: pilot value propositions in controlled environments, measure impact with finance-grade metrics, and lock in ROI before scaling.

Recommendations for a practical rollout include forming cross-functional squads under the AI-operations umbrella, implementing data contracts, and shipping a monthly rhythm of experiments. Track MTTR, automation coverage, false-positive rates, and customer satisfaction to ensure the AI-first approach compounds value across operations.

With a disciplined cadence and a clear set of cards to guide decisions, Brex can scale AI-powered operations without sacrificing governance or reliability.

Case Study: Automated Expense Categorization with AI at Brex

Deploy a single AI component for automated expense categorization and empower your team by routing spend lines through it; train the model on knowledge from approved contracts and past invoices, then push results back into the activity feed for these accounts. The component auto-classifies spent lines with accuracy above 90%, flags low-confidence items for human review, and saves manual effort during peak cycles.

In a 12-week pilot, 120,000 line items from 1,000 customers were processed; the system yielded an auto-classification rate of 78%, flagged 8,500 items for review, and cut reconciliation time from hours to minutes for the majority of cases. This case demonstrates how rapid automation can translate into tangible savings and faster closes.

During setup, we built a knowledge graph that links descriptions, vendors, and contract terms to category tags; the component learns from corrections, and the feedback loop helps it improve swiftly with each iteration. The good approach blends traditional controls with ML, reducing risk while scaling coverage.

Impact on operations proves tangible: customers see cleaner categories, enabling finance teams to really grow capabilities without more headcount; saving hours weekly, and delivering faster monthly closes. These gains empower teams again to focus on strategic work rather than repetitive checks, and they remain valid across evolving contracts and new spend streams.

To scale, apply these strategies: enforce data quality checks, maintain a living knowledge base about vendors and contracts, and build a closed feedback loop with operators; set SLAs for flagged items and automate follow-ups to yield swiftly resolutions, ensuring longer run rates and excel-based reporting.

These steps position Brex to grow an AI-first operations setup, where the knowledge captured in the component yielded measurable improvements for customers, while costs stay controlled until the model matures.

Data Ingestion and Labeling for AI-Driven Expense Categorization

Ingest all expenses sources into a centralized, timestamped feed and label data at import. This simple step can simply accelerate smarter categorization and reduce reconciliation time across finance and operations.

  • Ingestion design and sources

    Build an ingestion design that pulls expenses from ERP exports, card feeds, bank statements, and receipts captured by OCR or mobile apps. Use API connectors to deliver data through a single pipeline to a data lake or warehouse. Preserve origin, ingestion time, and version metadata so you can trace decisions through the full lifecycle. Aim for near-real-time streaming for high-volume items and reliable batch processing for historicals, which ends in a consistent feed rather than scattered silos.

  • Data model and labeling strategy

    Define a finance-centric taxonomy with categories, subcategories, and policy flags. Capture fields like date, amount, currency, merchant, vendor_id, department, project, source, and confidence score. Label on import with high confidence using rule-based maps first, then enrich with ML models. Maintain a labeling profile that records who labeled what, when, and why, so you know the rationale behind every label and can adjust later as policies evolve. Been careful about normalization reduces errors later in processes across teams.

  • Labeling quality and human-in-the-loop

    Incorporate human review for ambiguous items and use active learning to pick low-confidence cases. Track auto-label accuracy, human review rate, and time-to-label to improve the loop. Encourage cross-team feedback to refine taxonomies and mappings, which is encouraging for adoption and keeps teams aligned with ends.

  • Reconciliation and resolution

    Automate reconciliation with the general ledger by matching labeled expenses to GL entries and flagging mismatches. Attach investigation notes and evidence to each case, and route to a resolution workflow. This approach minimizes double-handling and delivers clear resolutions at period ends.

  • Health, governance, and privacy

    Monitor coverage, accuracy, and latency with dashboards, and enforce privacy controls and access policies. Maintain retention rules that support audits and compliance. Good data health supports smarter decision-making and reduces risk in finance reporting and planning across core processes.

  • Operational rollout and question framing

    Launch in waves: start with high-volume accounts to prove the model and then expand. Track metrics like auto-label rate, reconciliation match rate, and average time to close issues. The first question to stakeholders should identify missing sources or data gaps, and the last mile becomes straightforward when you align the profile, dashboards, and alerting with business goals. This design is built for a companys ability to close books faster and with less rework.

Model Architecture: Selecting and Fine-Tuning for Cost Centers

Begin with a standard modular foundation and align task-specific modules toward cost-center outcomes; fine-tune only the minimal component to keep reviews lean and decisions timely. Integrating data from finance, risk, and ops, use a shared embeddings layer to excel at common tasks while isolating high-value adapters for underwriting and approvals.

Keep a lean evaluation loop with fewer reviews and robust analytical checks, so the architecture can adapt quickly as you scale from a venture to broader operations. For cost centers like underwriting, design a dedicated evaluation component that feeds into a governance layer for approvals, elevating speed without sacrificing risk controls.

Adopt a modular fine-tuning approach: run a standard base model, then add task-specific adapters, including an analytical predictor for case-level risk and an approvals-oriented module. This reduces compute while increasingly improving accuracy and speed toward immediate business value today.

Boosting empowering teams, standardize the tuning cadence with automated checkpoints and instant feedback loops, aligning performance with cost targets. For a venture-backed operation, a single-component architecture supports iterative experiments, elevated results and increased insights for underwriting, risk, and product decisions.

Ensure data contracts and model versioning are baked into the standard component set; this increases traceability, reduces puzzles, and speeds approvals toward timely deployments.

Deployment Latency and Throughput: Real-Time vs Batch Expense Classification

Deployment Latency and Throughput: Real-Time vs Batch Expense Classification

Launch a hybrid real-time plus batch deployment: classify top expense types in a streaming path to deliver visibility into cash and reporting, while running batch jobs for the remainder to maximize throughput. Real-time latency should target 200–500 ms per item; batch windows of 15–60 minutes support significantly higher throughput for costs that don’t require instant action, suitable for companys in the sector pursuing ai-native efficiency. This setup can become a foundation where adaptive inference and governance work together.

An adaptive pipeline combines a robust ai-driven inference engine with a modern feature store, model registry, and a browser-based dashboard for reporting and visibility. In real time, transactions flow through a streaming path (Kafka, Kinesis, or similar) with sub-second decision latency, while nightly or hourly batches reprocess historical data to refresh labels and drift detect. This separation preserves knowledge while maintaining throughput across the sector demand curve, enabling sales teams and business operations to react swiftly and with confidence.

Keskeiset mittarit ohjaavat suunnitelmaa: latenssiprosenttipisteet, suorituskyky (tietueita per minuutti), kululuokituksen tarkkuus ja ajautuma. Reaaliaikaisen linjan tavoitteena on alle sekunnin viive tärkeimpien luokkien osalta; eräajo-linja ylläpitää tasaista suorituskykyä ruuhkien aikana; kalibrointijaksot päivittävät upotukset ja kynnysarvot 24–72 tunnin välein. AI-natiivi lähestymistapa vähentää manuaalista tarkastusta noin 40–60 % rutiiniluokitusten osalta, tuottaa johdolle toimivia oivalluksia ja mahdollistaa nopeammat kassapäätökset.

Operatiiviset vaiheet: määrittele SLO:t, instrumentoi putket jäljityksellä, aseta ominaisuusliput kaistojen vaihtamiseksi, suorita A/B-testejä tulosten vertailua varten ja rakenna raportointi, joka tuo esiin koko sektorin trendit. Aloita pienellä kategoriajoukolla ja laajenna sitten kattamaan matkat, kortit ja korvaukset. Tarkista pian lanseerauksen jälkeen latenssi ja suorituskyky, säädä kynnysarvoja ja varmista, että vain aikaherkät kohteet kulkevat reaaliajassa. Tämä tekoälypohjainen paketti, joka toimitetaan selainpohjaisen hallintapaneelin kautta, pitää tiedon vahvana ja hallinnon selkeänä.

Laadunvarmistus: Ihmisen osallistava arviointi ja jatkuva palaute

Ota käyttöön strukturoitu ihmisen ja koneen välinen tarkastus tärkeissä päätöksentekopisteissä elinkaaren aikana ja vaadi tarkastajan hyväksyntä tuotoksille, jotka ylittävät luottamusrajat, jotta virheet havaitaan ennen niiden vaikutusta. Tämä koordinointi mahdollistaa tuote-, suunnittelu- ja riskitiimien osallistumisen, ja heidän palautteensa paransi merkittävästi tarkkuutta, mikä kirjaimellisesti nosti tuloksia fintech-käytössä.

Määrittele HITL-hetkien joukko, joka on yhdistetty datan ja mallin käsittelyn elinkaareen. Merkitse tapaukset riskin ja käyttäjävaikutusten näkökulmasta ja reititä ne ihmistarkastajalle, kun luottamus laskee alle tietyn kynnyksen. Yhdistä automaattiset tarkistukset analyyttiseen, henkilökohtaiseen palautteeseen säilyttääksesi kontekstin ja tukeaksesi tarkastajien urakehitystä heidän hankkiessaan laajempaa asiantuntemusta.

Määritelkää mittarit, kuten tarkkuusdelta, ihmisen tekemien korjausten määrä ja palautteenantoon kuluva aika. Seuratkaa käyttöä ja virheilmoituksia parannusten määrittämiseksi. Odotettavissa on väärien positiivisten tulosten ja eskalaatioiden vähenemistä, samalla kun keskimääräinen aika tulosten varmentamiseen lyhenee ja tiimit oppivat reagoimaan nopeammin poikkeamiin.

Järjestäkää hallintotaso, joka yhdistää heidän tiiminsä – riskienhallinnan, tuotekehityksen, data-analyysin ja operatiivisen toiminnan – ja asettaa laadunvarmistuksen innovaattorin asemaan yrityksessä. Tarjoakaa selkeä näkemys onnistumisen kriteereistä ja antakaa arvioijille valmennusta vaikeiden asioiden käsittelyyn säilyttäen samalla käytännöllinen ja ihmiskeskeinen lähestymistapa. Tämä yhdenmukaistaminen tekee visiosta konkreettisen tiimille ja nopeuttaa kasvua.

Luo yksinkertainen eskalaatio-ohje: kerro arvioijille, milloin tehdä eskalaatio, mitkä raja-arvot käynnistävät korjaavat muutokset ja miten muutokset etenevät prosessointi- ja käyttöönotto-ohjelmien läpi. Tämä pitää palautteen tiiviinä ja välttää viiveitä, jotka saattavat hidastaa tuotteen nopeutta fintech-ympäristöissä.

Ota käyttöön vaiheittain: pilotoi kahdella tiimillä, kerää palautetta käytöstä ja iterioi. Dokumentoi päätökset ja versiointikäytännöt, jotta voidaan ylläpitää elävää näkemystä elinkaaresta, jota kaikki tiimit voivat hyödyntää. Tällä lähestymistavalla yrityksellä on paremmat edellytykset tuottaa luotettavampia kokemuksia ja ylläpitää luottamusta sen kasvaessa.

Järjestelmäintegraatio: AI-luokiteltujen kulujen siirtäminen pääkirjaan ja raportteihin

Järjestelmäintegraatio: AI-luokiteltujen kulujen siirtäminen pääkirjaan ja raportteihin

Lanseerataan keskitetty, tekoälypohjainen integraatiokerros, joka siirtää tekoälyn luokittelemat kulut pääkirjanpitoon ja raportointikokonaisuuteen; tämä mahdollistaa reaaliaikaisen näkyvyyden ja täysin automatisoidut täsmäytykset.

Alan kokemuksemme mukaan tämä lähestymistapa vähentää tehottomuutta kohdistamalla kulurakenteet pääkirjan kanssa, mikä parantaa tarkkuutta ja nopeutta.

Hallinnassa runsaasti tietoa sisältävä kartoitustaso kääntää tekoälyn luokittelemat rivit pääkirjan tileiksi. Kokeneet talousalan ammattilaiset ja johtoryhmän jäsenet osallistuvat prosessiin valvonnan ja vastuuvelvollisuuden varmistamiseksi. Johdon luotettavaa ja ajantasaista tietoa tavoitellessa tämä rakenne tarjoaa tarvittavan näkyvyyden yhteisen käytännön mukaisesti.

Toteuttamiseksi yhdistä standardoitu API-kokonaisuus lähdejärjestelmiin; aloita pilottiprojektilla yhdessä liiketoimintayksikössä ongelmanratkaisukeskeisellä ajattelutavalla optimointimahdollisuuksien tunnistamiseksi. Hanke alkoi pienenä kokeiluna lähestymistavan validoimiseksi ennen skaalausta.

Valvo tehokkuutta ja riskiä kevyellä valvontakehyksellä: kartoita poikkeamat, ylläpidä auditointilokeja ja kalibroi uudelleen tekoälyn luokittelua mallien muuttuessa, varmistaen, että ratkaisu pysyy tarkkana muuttuvissa käyttöprofiileissa.

Tuloksena on yhtenäinen operatiivisen toiminnan ja talouden alusta, joka parantaa johdon raportointia, nopeuttaa tilinpäätösjaksoja ja avaa mahdollisuuksia tulevaisuuden tekoälypohjaiselle kustannusten optimoinnille koko yrityksessä. Tämä ratkaisu yhdistää tekoälyn luokitteleman datan pääkirjanpitoon ja raportteihin tarjoten yhden totuuden lähteen talous- ja liiketoimintajohtajille.

Kommentit

Jätä kommentti

Kommenttisi

Nimesi

Sähköposti