CLI Reference#

This page contains a complete reference of all CLI commands available in Oumi.

For detailed guides and examples of specific areas (training, inference, evaluation, etc.), please refer to the corresponding user guides in the documentation.

CLI Overrides#

Any Oumi command which takes a config path as an argument (train, evaluate, infer, etc.) can override parameters from the command line. For example:

oumi train -c configs/recipes/smollm/sft/135m/quickstart_train.yaml \
  --training.max_steps 20 \
  --training.learning_rate 1e-4 \
  --data.train.datasets[0].shuffle true \
  --training.output_dir output/smollm-135m-sft

Oumi uses OmegaConf to parse the configs from YAML files, and to parse the command line overrides. OmegaConf allows a Pythonic specification of parameters to override with dot-separated syntax, as seen above. Note that for lists (ex. data.train.datasets), you can specify the index either with brackets ([0]) or dot notation (.0).

With OmegaConf, you can set the value of an entire dictionary or list, in addition to overriding individual primitive values. For example:

# Override one entry in the list. Note that the new dict is merged with the existing
# one, so the existing value of `"dataset_name": "yahma/alpaca-cleaned"` is kept.
oumi train -c configs/recipes/smollm/sft/135m/quickstart_train.yaml \
  --data.train.datasets[0] '{"shuffle": True, "sample_count": 100}'

# Override the list, in this case to add a new entry.
# Note that we redundantly specify an existing entry in the list here.
oumi train -c configs/recipes/smollm/sft/135m/quickstart_train.yaml \
  --data.train.datasets '[{"dataset_name": "yahma/alpaca-cleaned"}, {"dataset_name": "CohereForAI/aya_dataset"}]'

Warning

OmegaConf doesn’t readily support adding/deleting entries in a list from command line overrides using index notation. Instead, you need to set the value of the entire list, or modify the YAML config.

Warning

By default, when you override a dict value with another dict, the items from both will be merged, preferring the value from the overriding dict in case of an existing key. This is equivalent to Python dict merging behavior, ex. new_dict = {**old_dict, **override_dict}

Training#

For a detailed guide on training, see Training.

oumi train#

 oumi train Usage: oumi train [OPTIONS] Fine-tune or pre-train a model. Example configs: • llama3.2-vision-11b • llama4-scout-instruct • llava-7b Use --list to see all 75 configs. ╭─ Options ────────────────────────────────────────────────────────────────────╮ *--config-cTEXT                   Path or config name (e.g. llama3.1-8b-sft).         [required]                --listList all available        training configs.         --log-level-log[DEBUG|INFO|WARNING|ERRLogging level. OR|CRITICAL] --verbose-vEnable verbose output. --helpShow this message and     exit.                     ╰──────────────────────────────────────────────────────────────────────────────╯ ╭─ Model ──────────────────────────────────────────────────────────────────────╮ --model.model_name  TEXT   Model name or        HuggingFace path.    --model.model_max_l…INTEGERMaximum sequence     length.              --model.torch_dtype…TEXT   Torch dtype          (float16, bfloat16,  float32).            --model.trust_remot…--no-model.trust_r…Trust remote code    from HuggingFace.    ╰──────────────────────────────────────────────────────────────────────────────╯ ╭─ Training ───────────────────────────────────────────────────────────────────╮ --training.learning_rate      FLOAT  Learning rate. --training.per_device_train_b…INTEGERBatch size per device. --training.num_train_epochs   INTEGERNumber of training epochs. --training.output_dir         TEXT   Output directory for          checkpoints.                  --training.save_steps         INTEGERSave checkpoint every N       steps.                        ╰──────────────────────────────────────────────────────────────────────────────╯ ╭─ Data ───────────────────────────────────────────────────────────────────────╮ --data.train.datasets[0].datas…TEXTTraining dataset name. ╰──────────────────────────────────────────────────────────────────────────────╯

Evaluation#

For a detailed guide on evaluation, see Evaluation.

oumi evaluate#

 oumi evaluate Usage: oumi evaluate [OPTIONS] Run benchmarks and evaluations on a model. Example configs: • falcon-e-1b • gemma3-27b • phi4-reasoning-plus Use --list to see all 40 configs. ╭─ Options ────────────────────────────────────────────────────────────────────╮ *--config-cTEXT                   Path or config name (e.g. llama3.1-8b).             [required]                --listList all available        evaluation configs.       --log-level-log[DEBUG|INFO|WARNING|ERRLogging level. OR|CRITICAL] --verbose-vEnable verbose output. --helpShow this message and     exit.                     ╰──────────────────────────────────────────────────────────────────────────────╯ ╭─ Model ──────────────────────────────────────────────────────────────────────╮ --model.model_nameTEXTModel name or HuggingFace path. ╰──────────────────────────────────────────────────────────────────────────────╯ ╭─ Generation ─────────────────────────────────────────────────────────────────╮ --generation.max_new_tokensINTEGERMaximum number of new tokens to  generate.                        --generation.temperature   FLOAT  Sampling temperature (0.0 =      deterministic).                  ╰──────────────────────────────────────────────────────────────────────────────╯ ╭─ Output ─────────────────────────────────────────────────────────────────────╮ --output_dirTEXTOutput directory for evaluation results. ╰──────────────────────────────────────────────────────────────────────────────╯

Inference#

For a detailed guide on inference, see Inference.

oumi infer#

 oumi infer Usage: oumi infer [OPTIONS] Generate text or predictions using a model. Example configs: • falcon_h1_0_5b • falcon_h1_3b • gemma3-12b Use --list to see all 67 configs. ╭─ Options ────────────────────────────────────────────────────────────────────╮ *--config-cTEXT                 Path or config name     (e.g. llama3.1-8b).     [required]              --listList all available      inference configs.      --interactive-iRun in an interactive   session.                --imageTEXT                 File path or URL of an  input image to be used  with image+text VLLMs.  Only used in            interactive mode.       --system-promptTEXT                 System prompt for       task-specific           instructions. Only used in interactive mode.    --log-level-log[DEBUG|INFO|WARNING|ELogging level. RROR|CRITICAL] --verbose-vEnable verbose output. --helpShow this message and   exit.                   ╰──────────────────────────────────────────────────────────────────────────────╯ ╭─ Model ──────────────────────────────────────────────────────────────────────╮ --model.model_nameTEXTModel name or HuggingFace path. ╰──────────────────────────────────────────────────────────────────────────────╯ ╭─ Generation ─────────────────────────────────────────────────────────────────╮ --generation.max_new_tokensINTEGERMaximum number of new tokens to  generate.                        --generation.temperature   FLOAT  Sampling temperature (0.0 =      deterministic).                  --generation.top_p         FLOAT  Nucleus sampling threshold. ╰──────────────────────────────────────────────────────────────────────────────╯ ╭─ I/O ────────────────────────────────────────────────────────────────────────╮ --input_pathTEXTPath to input file with prompts (JSONL). --output_pathTEXTPath to output file for generated text. ╰──────────────────────────────────────────────────────────────────────────────╯

Judge#

For a detailed guide on judging, see LLM Judge.

oumi judge#

 oumi judge Usage: oumi judge [OPTIONS] COMMAND [ARGS]... Score and evaluate outputs using an LLM judge. Example configs: • format-compliance • safety • truthfulness Use --list to see all 5 configs. ╭─ Options ────────────────────────────────────────────────────────────────────╮ --listList all available judge configs. --helpShow this message and exit. ╰──────────────────────────────────────────────────────────────────────────────╯ ╭─ Commands ───────────────────────────────────────────────────────────────────╮ dataset       Judge a dataset.                                             conversations Judge conversations.                                         ╰──────────────────────────────────────────────────────────────────────────────╯

oumi judge dataset#

 oumi judge dataset Usage: oumi judge dataset [OPTIONS] Judge a dataset. Example configs: • format-compliance • instruction-following • truthfulness Use --list to see all 5 configs. ╭─ Options ────────────────────────────────────────────────────────────────────╮ *--config-cTEXTPath or config name (e.g. safety, truthfulness). [required]                                       --listList all available judge configs. --helpShow this message and exit. ╰──────────────────────────────────────────────────────────────────────────────╯ ╭─ I/O ────────────────────────────────────────────────────────────────────────╮ --inputTEXTPath to the dataset input file (jsonl). --outputTEXTPath to the output file (jsonl). ╰──────────────────────────────────────────────────────────────────────────────╯ ╭─ Output ─────────────────────────────────────────────────────────────────────╮ --rawDisplay raw judge output. ╰──────────────────────────────────────────────────────────────────────────────╯

oumi judge conversations#

 oumi judge conversations Usage: oumi judge conversations [OPTIONS] Judge conversations. Example configs: • format-compliance • instruction-following • truthfulness Use --list to see all 5 configs. ╭─ Options ────────────────────────────────────────────────────────────────────╮ *--config-cTEXTPath or config name (e.g. safety, truthfulness). [required]                                       --listList all available judge configs. --helpShow this message and exit. ╰──────────────────────────────────────────────────────────────────────────────╯ ╭─ I/O ────────────────────────────────────────────────────────────────────────╮ --inputTEXTPath to the conversations input file (jsonl). --outputTEXTPath to the output file (jsonl). ╰──────────────────────────────────────────────────────────────────────────────╯ ╭─ Output ─────────────────────────────────────────────────────────────────────╮ --rawDisplay raw judge output. ╰──────────────────────────────────────────────────────────────────────────────╯

Launch#

For a detailed guide on launching jobs, see Running Jobs on Clusters.

oumi launch#

 oumi launch Usage: oumi launch [OPTIONS] COMMAND [ARGS]... Deploy and manage jobs on cloud infrastructure. ╭─ Options ────────────────────────────────────────────────────────────────────╮ --helpShow this message and exit. ╰──────────────────────────────────────────────────────────────────────────────╯ ╭─ Commands ───────────────────────────────────────────────────────────────────╮ cancel Cancel a running job.                                               down   Tear down a cluster and release resources.                          run    Execute a job.                                                      status Show status of jobs launched from Oumi.                             stop   Stop a cluster without tearing it down.                             up     Start a cluster and run a job.                                      which  List available cloud providers.                                     logs   Fetch logs from a running or completed job.                         ╰──────────────────────────────────────────────────────────────────────────────╯

oumi launch cancel#

 oumi launch cancel Usage: oumi launch cancel [OPTIONS] Cancel a running job. ╭─ Options ────────────────────────────────────────────────────────────────────╮ *--cloudTEXT                   Filter results by this    cloud.                    [required]                *--clusterTEXT                   Filter results by         clusters matching this    name.                     [required]                *--idTEXT                   Filter results by jobs    matching this job ID.     [required]                --log-level-log[DEBUG|INFO|WARNING|ERRThe logging level for the OR|CRITICAL]specified command.        --helpShow this message and     exit.                     ╰──────────────────────────────────────────────────────────────────────────────╯

oumi launch down#

 oumi launch down Usage: oumi launch down [OPTIONS] Tear down a cluster and release resources. ╭─ Options ────────────────────────────────────────────────────────────────────╮ *--clusterTEXT                   The cluster to turn down. [required]                --cloudTEXT                   If specified, only        clusters on this cloud    will be affected.         --log-level-log[DEBUG|INFO|WARNING|ERRThe logging level for the OR|CRITICAL]specified command.        --helpShow this message and     exit.                     ╰──────────────────────────────────────────────────────────────────────────────╯

oumi launch run#

 oumi launch run Usage: oumi launch run [OPTIONS] Execute a job. ╭─ Options ────────────────────────────────────────────────────────────────────╮ *--config-cTEXT           Path to the       configuration     file for the job. [required]        --clusterTEXT           The cluster to    use for this job. If unspecified, a new cluster will  be created.       --detach--no-detachRun the job in    the background.   [default:         no-detach]        --output-filepa…TEXT           Path to save job  logs to a file.   --log-level-log[DEBUG|INFO|WARThe logging level NING|ERROR|CRITfor the specified ICAL]command.          --helpShow this message and exit.         ╰──────────────────────────────────────────────────────────────────────────────╯

oumi launch status#

 oumi launch status Usage: oumi launch status [OPTIONS] Show status of jobs launched from Oumi. ╭─ Options ────────────────────────────────────────────────────────────────────╮ --cloudTEXT                     Filter results by this     cloud.                     --clusterTEXT                     Filter results by clusters matching this name.        --idTEXT                     Filter results by jobs     matching this job ID.      --log-level-log[DEBUG|INFO|WARNING|ERRORThe logging level for the  |CRITICAL]specified command.         --helpShow this message and      exit.                      ╰──────────────────────────────────────────────────────────────────────────────╯

oumi launch stop#

 oumi launch stop Usage: oumi launch stop [OPTIONS] Stop a cluster without tearing it down. ╭─ Options ────────────────────────────────────────────────────────────────────╮ *--clusterTEXT                   The cluster to stop. [required]           --cloudTEXT                   If specified, only        clusters on this cloud    will be affected.         --log-level-log[DEBUG|INFO|WARNING|ERRThe logging level for the OR|CRITICAL]specified command.        --helpShow this message and     exit.                     ╰──────────────────────────────────────────────────────────────────────────────╯

oumi launch up#

 oumi launch up Usage: oumi launch up [OPTIONS] Start a cluster and run a job. ╭─ Options ────────────────────────────────────────────────────────────────────╮ *--config-cTEXT           Path to the       configuration     file for the job. [required]        --clusterTEXT           The cluster to    use for this job. If unspecified, a new cluster will  be created.       --detach--no-detachRun the job in    the background.   [default:         no-detach]        --output-filepa…TEXT           Path to save job  logs to a file.   --log-level-log[DEBUG|INFO|WARThe logging level NING|ERROR|CRITfor the specified ICAL]command.          --helpShow this message and exit.         ╰──────────────────────────────────────────────────────────────────────────────╯

oumi launch which#

 oumi launch which Usage: oumi launch which [OPTIONS] List available cloud providers. ╭─ Options ────────────────────────────────────────────────────────────────────╮ --log-level-log[DEBUG|INFO|WARNING|ERRORThe logging level for the  |CRITICAL]specified command.         --helpShow this message and      exit.                      ╰──────────────────────────────────────────────────────────────────────────────╯

oumi launch logs#

 oumi launch logs Usage: oumi launch logs [OPTIONS] Fetch logs from a running or completed job. ╭─ Options ────────────────────────────────────────────────────────────────────╮ *--clusterTEXTThe cluster to get the logs of.[required] --cloudTEXTIf specified, will filter for clusters on  this cloud.                                --job-idTEXTThe job ID to get the logs of. If          unspecified, the most recent job will be   used.                                      --output-filepathTEXTPath to save job logs to a file. If        unspecified, the logs will be printed to   the console.                               --helpShow this message and exit. ╰──────────────────────────────────────────────────────────────────────────────╯

Distributed#

For a detailed guide on distributed training, see Training.

oumi distributed#

 oumi distributed Usage: oumi distributed [OPTIONS] COMMAND [ARGS]... Run multi-GPU training locally. ╭─ Options ────────────────────────────────────────────────────────────────────╮ --helpShow this message and exit. ╰──────────────────────────────────────────────────────────────────────────────╯ ╭─ Commands ───────────────────────────────────────────────────────────────────╮ accelerate Starts `accelerate` sub-process w/ automatically configured     common params.                                                  torchrun   Starts `torchrun` sub-process w/ automatically configured       common params.                                                  ╰──────────────────────────────────────────────────────────────────────────────╯

oumi distributed accelerate#

 oumi distributed accelerate Usage: oumi distributed accelerate [OPTIONS] Starts `accelerate` sub-process w/ automatically configured common params. Args: ctx: The Typer context object. level: The logging level for the specified command. ╭─ Options ────────────────────────────────────────────────────────────────────╮ --log-level-log[DEBUG|INFO|WARNING|ERRORThe logging level for the  |CRITICAL]specified command.         --helpShow this message and      exit.                      ╰──────────────────────────────────────────────────────────────────────────────╯

oumi distributed torchrun#

 oumi distributed torchrun Usage: oumi distributed torchrun [OPTIONS] Starts `torchrun` sub-process w/ automatically configured common params. Args: ctx: The Typer context object. level: The logging level for the specified command. ╭─ Options ────────────────────────────────────────────────────────────────────╮ --log-level-log[DEBUG|INFO|WARNING|ERRORThe logging level for the  |CRITICAL]specified command.         --helpShow this message and      exit.                      ╰──────────────────────────────────────────────────────────────────────────────╯

Data Synthesis#

For a detailed guide on data synthesis, see Data Synthesis.

oumi synth#

 oumi synth Usage: oumi synth [OPTIONS] Generate synthetic training & evaluation data. ╭─ Options ────────────────────────────────────────────────────────────────────╮ *--config-cTEXT                   Path or config name for   synthesis.                [required]                --listList all available        synthesis configs.        --log-level-log[DEBUG|INFO|WARNING|ERRLogging level. OR|CRITICAL] --helpShow this message and     exit.                     ╰──────────────────────────────────────────────────────────────────────────────╯ ╭─ Output ─────────────────────────────────────────────────────────────────────╮ --output_pathTEXTOutput path for synthesized dataset. ╰──────────────────────────────────────────────────────────────────────────────╯

Dataset Analysis#

For a detailed guide on dataset analysis, see Dataset Analysis.

oumi analyze#

 oumi analyze Usage: oumi analyze [OPTIONS] Compute statistics and metrics for a dataset. ╭─ Options ────────────────────────────────────────────────────────────────────╮ *--config-cTEXT                   Path or config name for   analysis.                 [required]                --listList all available        analysis configs.         --log-level-log[DEBUG|INFO|WARNING|ERRLogging level. OR|CRITICAL] --verbose-vEnable verbose output. --helpShow this message and     exit.                     ╰──────────────────────────────────────────────────────────────────────────────╯ ╭─ Data ───────────────────────────────────────────────────────────────────────╮ --dataset_nameTEXT   Dataset name to analyze. --dataset_pathTEXT   Path to custom dataset file (JSON or JSONL). --sample_countINTEGERNumber of examples to sample from the         dataset.                                      ╰──────────────────────────────────────────────────────────────────────────────╯ ╭─ Output ─────────────────────────────────────────────────────────────────────╮ --output-oTEXTOutput directory for analysis results. --format-fTEXTOutput format for results: csv, json, or parquet. [default: csv]                                    ╰──────────────────────────────────────────────────────────────────────────────╯

Hyperparameter Tuning#

For a detailed guide on hyperparameter tuning, see Hyperparameter Tuning.

oumi tune#

 oumi tune Usage: oumi tune [OPTIONS] Search for optimal hyperparameters. Example configs: • smollm-135m ╭─ Options ────────────────────────────────────────────────────────────────────╮ *--config-cTEXT                   Path or config name (e.g. smollm-135m).             [required]                --listList all available tuning configs.                  --log-level-log[DEBUG|INFO|WARNING|ERRLogging level. OR|CRITICAL] --verbose-vEnable verbose output. --helpShow this message and     exit.                     ╰──────────────────────────────────────────────────────────────────────────────╯ ╭─ Model ──────────────────────────────────────────────────────────────────────╮ --model.model_nameTEXTModel name or HuggingFace path. ╰──────────────────────────────────────────────────────────────────────────────╯ ╭─ Tuning ─────────────────────────────────────────────────────────────────────╮ --tuning.n_trialsINTEGERNumber of tuning trials to perform. ╰──────────────────────────────────────────────────────────────────────────────╯ ╭─ Output ─────────────────────────────────────────────────────────────────────╮ --tuning.output_dirTEXTOutput directory for tuning results. ╰──────────────────────────────────────────────────────────────────────────────╯

Quantization#

For a detailed guide on model quantization, see Quantization.

oumi quantize#

 oumi quantize Usage: oumi quantize [OPTIONS] Compress a model to reduce size and speed up inference. ╭─ Options ────────────────────────────────────────────────────────────────────╮ --config-cTEXTPath to the configuration file for quantization. Can be a local path or an Oumi registry URI              (oumi://...). The config file should be in YAML      format and define a QuantizationConfig. If not       provided, will create a default config from CLI      arguments.                                           --listList all available quantization configs. --helpShow this message and exit. ╰──────────────────────────────────────────────────────────────────────────────╯ ╭─ Model ──────────────────────────────────────────────────────────────────────╮ --modelTEXTPath or identifier of the model to quantize. Can be a   HuggingFace model ID (e.g., 'oumi-ai/HallOumi-8B'), a   local directory path, or an Oumi model registry         identifier. If not specified, uses the model defined in the config file.                                        ╰──────────────────────────────────────────────────────────────────────────────╯ ╭─ Quantization ───────────────────────────────────────────────────────────────╮ --methodTEXTQuantization method to use. AWQ methods: awq_q4_0      (default), awq_q4_1, awq_q8_0, awq_f16. BitsAndBytes   methods: bnb_4bit, bnb_8bit.                           [default: awq_q4_0]                                    ╰──────────────────────────────────────────────────────────────────────────────╯ ╭─ Output ─────────────────────────────────────────────────────────────────────╮ --outputTEXTOutput path for the quantized model. [default: quantized_model]           ╰──────────────────────────────────────────────────────────────────────────────╯

Environment#

This command is a great tool for debugging!

oumi env will list relevant details of your environment setup, including python version, package versions, and Oumi environment variables.

oumi env#

 oumi env Usage: oumi env [OPTIONS] Show Oumi environment and system information. ╭─ Options ────────────────────────────────────────────────────────────────────╮ --helpShow this message and exit. ╰──────────────────────────────────────────────────────────────────────────────╯