画像ファイルからテキストを抽出する方法

C#でのテッセラクトの使い方

This article was translated from English: Does it need improvement?
Translated
View the article in English

C#のIron Tesseractは、IronTesseractインスタンスを作成し、言語とOCRの設定を行い、画像やPDFを含むOcrInputオブジェクトのRead()メソッドを呼び出すことで使用されます。 Tesseract 5の最適化されたエンジンを使って、テキストの画像を検索可能なPDFに変換します。

IronOCR は、Iron Tesseract と呼ばれるカスタマイズおよび最適化された Tesseract 5 を利用するための直感的な API を提供します。 IronOCRとIronTesseractを使うことで、テキストの画像やスキャンした文書をテキストや検索可能なPDFに変換することができます。 ライブラリは、125の国際言語をサポートし、BarCode読み取りコンピュータビジョンのような高度な機能を含んでいます。

クイックスタート: C# で IronTesseract 構成を設定する

この例では、IronTesseractを特定の設定で構成し、1行のコードでOCRを実行する方法を示します。

Nuget Icon今すぐ NuGet で PDF を作成してみましょう:

  1. NuGet パッケージ マネージャーを使用して IronOCR をインストールします

    PM > Install-Package IronOcr

  2. このコード スニペットをコピーして実行します。

    var result = new IronOcr.IronTesseract { Language = IronOcr.OcrLanguage.English, Configuration = new IronOcr.TesseractConfiguration { ReadBarCodes = false, RenderSearchablePdf = true, WhiteListCharacters = "ABCabc123" } }.Read(new IronOcr.OcrInput("image.png"));
  3. 実際の環境でテストするためにデプロイする

    今すぐ無料トライアルでプロジェクトに IronOCR を使い始めましょう
    arrow pointer

どのようにIronTesseractインスタンスを作成しますか? このコードでTesseractオブジェクトを初期化する: ```csharp :path=/static-assets/ocr/content-code-examples/how-to/irontesseract-initialize-irontesseract.cs ``` `IronTesseract`の動作は、異なる言語を選択したり、BarCodeの読み取りを有効にしたり、文字をホワイトリスト/ブラックリストに登録したりすることでカスタマイズできます。 IronOCRは、OCRプロセスを微調整するための包括的な[設定オプション](https://ironsoftware.com/csharp/ocr/examples/csharp-configure-setup-tesseract/)を提供します: ```csharp :path=/static-assets/ocr/content-code-examples/how-to/irontesseract-configure-irontesseract.cs ``` 一度設定すれば、Tesseractの機能を使って`OcrInput`オブジェクトを読むことができます。 [OcrInputクラス](https://ironsoftware.com/csharp/ocr/examples/csharp-ocr-input-for-iron-tesseract/)は、さまざまな入力フォーマットを読み込むための柔軟なメソッドを提供します: ```csharp :path=/static-assets/ocr/content-code-examples/how-to/irontesseract-read.cs ``` 複雑なシナリオでは、[マルチスレッド機能](https://ironsoftware.com/csharp/ocr/examples/csharp-tesseract-multithreading-for-speed/)を活用して複数のドキュメントを同時に処理し、バッチ処理のパフォーマンスを大幅に向上させることができます。 ## Tesseractの高度な設定変数とは IronOCR Tesseract インターフェースでは[、IronOCR.TesseractConfiguration クラス](/csharp/ocr/object-reference/api/IronOcr.TesseractConfiguration.html)を通じて Tesseract 構成変数を完全に制御できます。 これらの高度な設定により、[低品質スキャンの修正](https://ironsoftware.com/csharp/ocr/examples/ocr-low-quality-scans-tesseract/)や[特定のドキュメント タイプの読み取り](https://ironsoftware.com/csharp/ocr/tutorials/read-specific-document/)など、特定の使用ケースに合わせて OCR のパフォーマンスを最適化できます。

コード内でTesseractコンフィギュレーションを使用するには? ```csharp :path=/static-assets/ocr/content-code-examples/how-to/irontesseract-tesseract-configuration.cs ``` IronOCRはまた、異なるドキュメントタイプに特化した設定を提供します。例えば、[パスポートの読み取り](https://ironsoftware.com/csharp/ocr/examples/read-passport/)や[MICR小切手の処理](https://ironsoftware.com/csharp/ocr/examples/read-micr-cheque/)では、特定の前処理フィルターや領域検出を適用して精度を向上させることができます。 財務文書の構成例 ```csharp // Example: Configure for financial documents IronTesseract ocr = new IronTesseract { Language = OcrLanguage.English, Configuration = new TesseractConfiguration { PageSegmentationMode = TesseractPageSegmentationMode.SingleBlock, TesseractVariables = new Dictionary{ ["tessedit_char_whitelist"] = "0123456789.$,", ["テキストードヘビーnr"] = false, ["アウトラインあたりのエッジの最大子数"] = 10 } } }; // Apply preprocessing filters for better accuracy using OcrInput input = new OcrInput(); input.LoadPdf("financial-document.pdf"); input.Deskew(); input.EnhanceResolution(300); OcrResult result = ocr.Read(input); ``` ## すべてのTesseract構成変数の完全なリストは何ですか? これらは`IronTesseract.Configuration.TesseractVariables["key"] = value;`を使用して設定できます。 設定変数を使用すると、特定のドキュメントで最適な結果を得るためにOCRの動作を微調整することができます。 OCR パフォーマンスの最適化に関する詳細なガイダンスについては、[高速 OCR 設定ガイド](https://ironsoftware.com/csharp/ocr/examples/tune-tesseract-for-speed-in-dotnet/)を参照してください。0Use old baseline algorithm0All doc is proportial text0Debug on fixed pitch test0Turn off dp fixed pitch algorithm0Do even faster pitch algorithm0Write full metric stuff0Draw row-level cuts0Draw page-level cuts0Use correct answer for fixed/prop0Attempt whole doc/block fixed pitch0Display separate words0Display separate words0Display forced fixed pitch words0Moan about prop blocks0Moan about fixed pitch blocks0Dump stats when moaning0Do current test0.08Fraction of xheight for sameness0.5Max initial cluster size0.15Min initial cluster spacing0.25Fraction of xheight0.75Fraction of xheight0.6Allowed size variance0.3Non-fuzzy spacing region2.8Min ratio space/nonspace2Min ratio space/nonspace1.5Pitch IQR/Gap IQR threshold0.2Xh fraction noise in pitch0.5Min width of decent blobs0.1Fraction of x to ignore0Debug level for unichar ambiguities0Classify debug level1Normalization Method ...0Matcher Debug Level0Matcher Debug Flags0Learning Debug Level:1Min # of permanent classes3Reliable Config Threshold5Enable adaption even if the ambiguities have not been seen230Threshold for good protos during adaptive 0-255230Threshold for good features during adaptive 0-255229Class Pruner Threshold 0-25515Class Pruner Multiplier 0-255:7Class Pruner CutoffStrength:10Integer Matcher Multiplier 0-255:0Set to 1 for general debug info, to 2 for more details, to 3 to see all the debug messages0Debug level for hyphenated words.2Size of dict word to be treated as non-dict word0Stopper debug level10Max words to keep in list10000Maximum number of different character choices to consider during permutation. This limit is especially useful when user patterns are specified, since overly generic patterns can result in dawg search exploring an overly large number of options.1Fix blobs that aren't chopped0Chop debug10000Split Length2Same distance6Min Number of Points on Outline150Max number of seams in seam_pile-50Min Inside Angle Bend2000Min Outline Area90Width of (smaller) chopped blobs above which we don't care that a chop is not near the center.3X / Y length weight0Debug level for wordrec4Max number of broken pieces to associate0SegSearch debug level2000Maximum number of pain points stored in the queue0Language model debug level8Maximum order of the character ngram model10Maximum number of prunable (those for which PrunablePath() is true) entries in each viterbi list recorded in BLOB_CHOICEs500Maximum size of viterbi lists recorded in BLOB_CHOICEs3Minimum length of compound words0Display Segmentations6Page seg mode: 0=osd only, 1=auto+osd, 2=auto_only, 3=auto, 4=column, 5=block_vert, 6=block, 7=line, 8=word, 9=word_circle, 10=char,11=sparse_text, 12=sparse_text+osd, 13=raw_line (Values from PageSegMode enum in tesseract/publictypes.h)2Which OCR engine(s) to run (Tesseract, LSTM, both). デフォルトs to loading and running the most accurate available.0Whether to use the top-line splitting process for Devanagari documents while performing page-segmentation.0Whether to use the top-line splitting process for Devanagari documents while performing ocr.0Debug level for BiDi1Debug level0Page number to apply boxes from0Amount of debug output for bigram correction.0Debug reassignment of small outlines8Max diacritics to apply to a blob16Max diacritics to apply to a word0Reestimate debug2alphas in a good word39Adaptation decision algorithm for tess0Print multilang debug info.0Print paragraph debug info.2Only preserve wds longer than this10For adj length in rating per ch1How many potential indicators needed4Don't crunch words with long lower case strings4Don't crunch words with long lower case strings3Crunch words with long repetitions1How many non-noise blbs either side?1What constitues done for spacing0Contextual fixspace debug8Max allowed deviation of blob top outside of font data8Min change in xht before actually trying it0Debug level for sub & superscript fixer85Set JPEG quality level0Specify DPI for input image50Specify minimum characters to try during OSD0Rejection algorithm2Rej blbs near image edge limit8Reject any x-ht lt or eq than this-1-1 -> All pages, else specific page to process1Run in parallel where possible2Allows to include alternative symbols choices in the hOCR output. Valid input values are 0, 1 and 2. 0 is the default value. With 1 the alternative symbol choices per timestep are included. With 2 alternative symbol choices are extracted from the CTC process instead of the lattice. The choices are mapped per character.5Sets the number of cascading iterations for the Beamsearch in lstm_choice_mode. Note that lstm_choice_mode must be set to a value greater than 0 to produce results.0Debug data3or should we use mean10No.samples reqd to reestimate for row40No.gaps reqd with 1 large gap to treat as a table20No.gaps reqd with few cert spaces to use certs1How to avoid being silly7Pixel size of noise0Baseline debug level10Fraction of size for maxima16Transitions for normal blob1super norm blobs to save row0Use ambigs for deciding whether to adapt to a character0Prioritize blob division over chopping1Enable adaptive classifier0Character Normalized Matching0Baseline Normalized Matching1Enable adaptive classifier0Use pre-adapted classifier templates0Save adapted templates to a file0Enable match debugger0Non-linear stroke-density normalization0Bring up graphical debugging windows for fragments training0Use two different windows for debugging the matching: One for the protos and one for the features.0Assume the input is numbers [0-9].1Load system word dawg.1Load frequent word dawg.1Load unambiguous word dawg.1Load dawg with punctuation patterns.1Load dawg with number patterns.1Load dawg with special word bigrams.0Use only the first UTF8 step of the given string when computing log probabilities.0Make AcceptableChoice() always return false. Useful when there is a need to explore all segmentations0Don't use any alphabetic-specific tricks. Set to true in the traineddata config file for scripts that are cursive or inherently fixed-pitch0Save Document Words1Merge the fragments in the ratings matrix and delete them after merging1Associator Enable0force associator to run regardless of what enable_assoc is. This is used for CJK where component grouping is necessary.1Chop enable0Vertical creep1Use new seam_pile0include fixed-pitch heuristics in char segmentation0Only run OCR for words that had truth recorded in BlamerBundle0Print blamer debug messages0Try to set the blame for errors1Save alternative paths found during chopping and segmentation search1Words are delimited by space0Use sigmoidal score for certainty0Take segmentation and labeling from box file0Conversion of word/line box file to char box file0Generate training data from boxed chars0Generate more boxes from boxed chars0Break input into lines and remap boxes if present0Dump intermediate images made during page segmentation1Try inverting the image in LSTMRecognizeWord0Perform training for ambiguities0Generate and print debug information for adaption0Learn both character fragments (as is done in the special low exposure mode) as well as unfragmented characters.0Each bounding box is assumed to contain ngrams. Only learn the ngrams whose outlines overlap horizontally.0Draw output words0Dump char choices0Print timing stats1Try to improve fuzzy spaces0Don't bother with word plausibility1Crunch double hyphens?1Add words to the document dictionary0Output font info per char0Block and Row stats1Enable correction based on the word bigram dictionary.0Enable single word correction based on the dictionary.1Remove and conditionally reassign small outlines when they confuse layout analysis, determining diacritics vs noise0Do minimal rejection on pass 1 output0Test adaption criteria0Test for point1Run paragraph detection on the post-text-recognition (more accurate)1Use ratings matrix/beam search with lstm1Reduce rejection on good docs1Reject spaces?0Add font info to hocr output0Add coordinates for each character to hocr output1Before word crunch?0Take out ~^ early?1As it says1Don't touch sensible strings0Use dictword test1Individual rejection control1Individual rejection control1Individual rejection control0Extend permuter check0Extend permuter check0Output text with boxes0Capture the image from the IPE0Run interactively?1According to dict_word0In multilingual mode use params model of the primary language0Debug line finding0Use CJK fixed pitch model0Allow feature extractors to see the original outline0Only initialize with the config file. Useful if the instance is not going to be used for OCR but say only for layout analysis.0Turn on equation detector1Enable vertical detection0Force using vertical text page mode0Preserve multiple interword spaces1Detect music staff and remove intersecting components0Script has no xheight, so use a single mode0Space stats use prechopping?0Constrain relative values of inter and intra-word gaps for old_to_method.1Block stats to use fixed pitch rows?0Force word breaks on punct to break long lines in non-space delimited langs0Space stats use prechopping?0Fix suspected bug in old code1Only stat OBVIOUS spaces1Only stat OBVIOUS spaces1Only stat OBVIOUS spaces1Only stat OBVIOUS spaces1Use row alone when inadequate cert spaces0Better guess0Pass ANY flip to context?1Don't restrict kn->sp fuzzy limit to tables0Don't remove noise blobs0Display unsorted blobs0Display unsorted blobs1Reject noise-like words1Reject noise-like rows0Debug row garbage detectorClass str to debug learningA filename of user-provided words.A suffix of user-provided words located in tessdata.A filename of user-provided patterns.A suffix of user-provided patterns located in tessdata.Output file for ambiguities found in the dictionaryWord for which stopper debug information should be printed to stdoutBlacklist of chars not to recognizeWhitelist of chars to recognizeList of chars to override tessedit_char_ブラックリスト.expExposure value follows this pattern in the image filename. The name of the image files are expected to be in the form [lang].[fontname].exp [num].tif行頭の句読点)。、;:?!1st Trailing punctuation2nd Trailing punctuationPage separator (default is form feed control character)0.2Character Normalization Range ...1.5Veto ratio between classifier ratings5.5Veto difference between classifier certainties0.125Good Match (0-1)0Great Match (0-1)0.02Perfect Match (0-1)0.15Bad Match Pad (0-1)0.1New template margin (0-1)12Avg. noise blob length0.015Maximum angle delta for prototype clustering0Penalty to apply when a non-alnum is vertically out of its expected textline position1.5Rating scaling factor20Certainty scaling factor0.00390625Scale factor for features not used2.5Prune poor adapted results this much worse than best result-1Threshold at which 適応剪定係数を分類する starts-3Exclude fragments that do not look like whole characters from training and adaption0.3Max large speckle size10Penalty to add to worst rating for noise0.125Score penalty (0.1 = 10%) added if there are subscripts or superscripts in a word, but it is otherwise OK.0.25Score penalty (0.1 = 10%) added if an xheight is inconsistent.1Score multiplier for word matches which have good case and are frequent in the given language (lower is better).1.1Score multiplier for word matches that have good case (lower is better).1.3125デフォルト score multiplier for word matches, which may have case issues (lower is better).1.25Score multiplier for glyph fragment segmentations which do not match a dictionary word (lower is better).-2.25Worst certainty for words that can be inserted into the document dictionary-2.25Good blob limit2最大文字幅と高さの比率
Tesseract 設定変数デフォルト意味
分類番号cpレベル3クラスプルーナーレベルの数
textord_debug_tabfind0デバッグタブの検出
textord_debug_bugs0タブ検索のバグに関する出力をオンにする
textord_testregion_left-1デバッグレポートの四角形の左端
textord_testregion_top-1デバッグレポートの四角形の上端
テキストコード_テスト領域_右2147483647デバッグ長方形の右端
テキストコード_テスト領域_下2147483647デバッグ用四角形の下端
textord_tabfind_show_partitions0パーティション境界を表示し、>1 の場合は待機します
デバナガリ_スプリット_デバッグレベル0分割された shiro-rekha プロセスのデバッグ レベル。
アウトラインあたりのエッジの最大子数10キャラクターアウトライン内の子の最大数
エッジの最大子レイヤー数5文字アウトライン内のネストされた子の最大レイヤー数
孫あたりのエッジの子数10チャッキングアウトラインの重要度比
エッジの子の数の制限45ブロブに許容される最大穴数
エッジの最小非穴12ボックス内の文字の最小ピクセル数
エッジパス面積比40Max lensq/area for acceptable child outline
textord_fp_chop_error2チョップセルの最大許容曲げ
textord_tabfind_show_images0Show image blobs
textord_skewsmooth_offset4スムーズファクター
textord_skewsmooth_offset21スムーズファクター
テキストードテストx-2147483647検査患者の座標
テキストord_test_y-2147483647検査患者の座標
行内のテキストワードの最小ブロブ数4勾配をカウントする前の最小ブロブ数
テキストードスプライン最小ブロブ8Min blobs in each spline segment
テキストフォードスプライン中央値勝利6Size of window for spline segmentation
テキストオード最大ブロブオーバーラップ4Max number of blobs a big blob can overlap
テキストord_min_xheight10Min credible pixel xheight
textord_lms_line_trials12Number of linew fits to do
古い穴あき損失数10Max lost before fallback line used
pitsync_linear_version6Use new fast algorithm
ピットシンクフェイクデプス1Max advance fake generation
textord_tabfind_show_strokewidths0Show stroke widths
テキストードドットマトリックスギャップ3Max pixel gap for broken pixed pitch
テキストコードデバッグブロック0Block to do debug on
テキストピッチ範囲2Max range test on pitch
テキストワード拒否権5Rows required to outvote a veto
方程式検出_保存_bi_image0Save input bi image
方程式検出_save_spt_image0Save special character image
方程式検出_保存_シード画像0Save the seed image
方程式検出_マージされた画像を保存0Save the merged image
ポリデバッグ0Debug old poly
ポリワイドオブジェクトより良い1More accurate approx on wide things
単語記録表示分割0Display splits
textord_debug_printable0Make debug windows printable
textord_space_size_is_variable0If true, word delimiter spaces are assumed to have variable width, even though characters have fixed pitch.
textord_tabfind_show_initial_partitions0Show partition bounds
textord_tabfind_show_reject_blobs0Show blobs rejected as noise
textord_tabfind_show_columns0Show column bounds
textord_tabfind_show_blocks0Show final block bounds
textord_tabfind_find_tables1run table detection
デバナガリ_スプリット_デバッグイメージ0Whether to create a debug image for split shiro-rekha process.
textord_show_fixed_cuts0Draw fixed pitch cell boundaries
エッジ使用の新しいアウトラインの複雑さ0Use the new outline complexity module
エッジデバッグ0turn on debugging for this module
エッジの子供の修正0Remove boxy parents of char-like children
ギャップマップデバッグ0Say which blocks have tables
ギャップマップの使用終了0Use large space at start and end of rows
ギャップマップ_no_isolated_quanta0Ensure gaps not less than 2quanta wide
テキストードヘビーnr0Vigorously remove noise
textord_show_initial_rows0Display row accumulation
textord_show_parallel_rows0Display page correlated rows
textord_show_expanded_rows0Display rows after expanding
textord_show_final_rows0Display rows after final fitting
textord_show_final_blobsDisplay blob bounds after pre-ass
textord_test_landscape0Tests refer to land/port
textord_parallel_baselines1Force parallel baselines
テキストコード_ストレート_ベースライン0Force straight baselines
textord_old_baselines1
テキストード古いx高さ0Use old xheight algorithm
textord_fix_xheight_bug1Use spline baseline
textord_fix_makerow_bug1Prevent multiple baselines
textord_debug_xheights0Test xheight algorithms
textord_biased_skewcalc1Bias skew estimates with line length
textord_interpolating_skew1Interpolate across gaps
テキストード_新しい_初期_x高さ1Use test xheight mechanism
テキストード_デバッグ_ブロブ0Print test blob information
テキストード_本当に古い_x高さ0Use original wiseowl xheight
textord_oldbl_debug0Debug old baseline generation
textord_debug_baselines0Debug baseline generation
textord_oldbl_paradef1Use para default mechanism
textord_oldbl_split_splines1Split stepped splines
textord_oldbl_merge_parts1Merge suspect partitions
古いbl_corrfix1Improve correlation of heights
古いbl_xhfix0Fix bug in modes threshold for xheights
テキストードオクロプスモード0Make baselines for ocropus
textord_tabfind_only_strokewidths0Only run stroke widths
textord_tabfind_show_initialtabs0Show tab candidates
textord_tabfind_show_finaltabs0Show tab vectors
textord_show_tables0Show table regions
textord_tablefind_show_mark0Debug table marking steps in detail
textord_tablefind_show_stats0Show page stats used in table finding
textord_tablefind_recognize_tables0Enables the table recognizer for table layout and filtering.
textord_all_prop
textord_debug_pitch_test
textord_disable_pitch_test
テキストコード_fast_pitch_test
テキストコード_デバッグ_ピッチ_メトリック
textord_show_row_cuts
textord_show_page_cuts
テキストードピッチチート
textord_blockndoc_fixed
textord_show_initial_words
textord_show_new_words
textord_show_fixed_words
textord_blocksall_fixed
textord_blocksall_prop
textord_blocksall_testing
テキストードテストモード
textord_pitch_rowsimilarity
単語の頭文字
単語の頭文字
単語のデフォルトプロパティ非スペース
単語のデフォルト固定スペース
単語数のデフォルト制限
テキストワードの明確な広がり
テキストスペースサイズ比
textord_spacesize_ratioprop
テキストord_fpiqr_ratio
テキストード最大ピッチiqr
テキストフォードfpの最小幅
テキスト下線オフセット
ambigs_debug_level
デバッグレベルを分類する
分類規範法
マッチャーデバッグレベル
マッチャーデバッグフラグ
分類学習デバッグレベル
マッチャー永続クラス最小値
プロトタイプ作成のためのmatcher_min_examples
プロトタイプ作成のための十分な例のマッチング
分類_適応_プロト_しきい値
分類_適応_特徴_しきい値
分類クラスプルーナーしきい値
分類クラスプルーナー乗数
分類_cp_カットオフ_強度
整数マッチャー乗数分類
dawg_debug_level
ハイフンデバッグレベル
ストッパー_smallword_size
ストッパーデバッグレベル
tessedit_truncate_wordchoice_log
最大試行回数
修復されていないBLOB
チョップデバッグ
チョップスプリット長さ
同じ距離を切り取る
最小アウトラインポイントを切り取る
チョップシームパイルサイズ
チョップインサイドアングル
最小アウトライン面積
チョップ中央最大幅
チョップ_x_y_ウェイト
wordrec_debug_level
wordrec_max_join_chunks
セグメント検索デバッグレベル
セグメント検索最大痛みポイント
segsearch_max_futile_classifications20Maximum number of pain point classifications per chunk that did not result in finding a better word choice.
言語モデルのデバッグレベル
言語モデルngram順序
言語モデルビタービリストの最大プルーニング可能数
言語モデルビタービリストの最大サイズ
言語モデルの最小複合長
ワードレック_ディスプレイ_セグメンテーション
tessedit_pageseg_mode
tessedit_ocr_engine_mode
ページeg_devanagari_split_strategy
ocr_devanagari_split_strategy
bidi_debug
適用ボックスデバッグ
適用ボックスページ
tessedit_bigram_debug
デバッグノイズ除去
ノイズ最大ブロブ
単語あたりのノイズ最大値
デバッグ_x_ht_レベル
品質_最小_初期_アルファ値_必要
tessedit_tess_adaption_mode
マルチ言語デバッグレベル
段落デバッグレベル
tessedit_preserve_min_wd_len
クランチレーティングマックス
クランチポットインジケーター
クランチ_leave_lc_strings
クランチ_leave_uc_strings
クランチロングレペティション
crunch_debug0As it says
fixsp_non_noise_limit
fixsp_done_mode
デバッグ修正スペースレベル
x_ht_許容値
x_ht_min_change
上付き文字デバッグ
jpg_品質
ユーザー定義dpi
試す最小文字数
suspect_level99Suspect marker level
suspect_short_words2Don't suspect dict wds longer than this
tessedit_reject_mode
tessedit_image_border
最小の正気のx高さピクセル
tessedit_ページ番号
tessedit_parallelize
lstm_choice_mode
lstm_choice_iterations
tosp_debug_level
中央値に十分なスペースのサンプル数
tosp_redo_kern_limit
tosp_few_samples
tosp_short_row
tosp_sanity_method
テキストード最大ノイズサイズ
テキストコード_ベースライン_デバッグ
textord_noise_sizefraction
テキストードノイズトランスリミット
テキストードノイズカウント
適応のための曖昧さの使用
優先順位付け部門
分類_有効_学習
tess_cn_matching
tess_bn_マッチング
分類_有効_適応_マッチャー
事前に適応されたテンプレートを使用して分類する
適応したテンプレートを分類して保存する
分類_有効_適応型デバッガー
非線形ノルムを分類する
disable_character_fragments1Do not include character fragments in the results of the classifier
分類デバッグ文字フラグメント
マッチャーデバッグ分離ウィンドウ
分類_bln_数値_モード
ロードシステムドッグ
ロード頻度
ロード_unambig_dawg
ロードパンクドッグ
ロード番号_dawg
ロードビグラムドッグ
uft8の最初のステップのみを使用する
ストッパー_受け入れられない選択肢
セグメント非アルファベット文字
ドキュメントの単語を保存
マトリックス内のフラグメントのマージ
wordrec_enable_assoc
強制単語連想
チョップを有効にする
チョップ垂直クリープ
新しいシームパイルを切り刻む
固定ピッチ文字セグメントを想定
単語記録スキップなし真実のない単語
wordrec_debug_blamer
wordrec_run_blamer
代替選択肢を保存する
language_model_ngram_on0Turn on/off the use of character ngram model
language_model_ngram_use_ only_first_uft8_step0Use only the first UTF8 step of the given string when computing log probabilities.
言語モデルngram空間_区切り言語
言語モデル使用シグモイド確実性
tessedit_resegment_from_boxes
tessedit_resegment_from_line_boxes
tessedit_train_from_boxes
tessedit_make_boxes_from_boxes(箱から箱を作る
tessedit_train_line_recognizer
tessedit_dump_pageseg_images
tessedit_do_invert
tessedit_ambigs_training
tessedit_adaption_debug
applybox_learn_chars_and_char_frags_mode
applybox_learn_ngrams_mode
tessedit_display_outwords
tessedit_dump_choices
tessedit_timing_debug
tessedit_fix_fuzzy_spaces
tessedit_unrej_any_wd
tessedit_fix_hyphens
tessedit_enable_doc_dict
tessedit_debug_fonts
tessedit_debug_block_rejection
tessedit_enable_bigram_correction
tessedit_enable_dict_correction
ノイズ除去を有効にする
tessedit_minimal_rej_pass1
tessedit_test_adaptation
テストpt
段落テキストベース
lstm_use_matrix
テセディット_良質_アンレジ
tessedit_use_reject_spaces
tessedit_preserve_blk_rej_perfect_wds1Only rej partially rejected words in block rejection
tessedit_preserve_row_rej_perfect_wds1Only rej partially rejected words in row rejection
tessedit_dont_blkrej_good_wds0Use word segmentation quality metric
tessedit_dont_rowrej_good_wds0Use word segmentation quality metric
tessedit_row_rej_good_docs1Apply row rejection to good docs
tessedit_reject_bad_qual_wds1Reject all bad quality wds
tessedit_debug_doc_rejection0Page stats
tessedit_debug_quality_metrics0Output data to debug file
bland_unrej0unrej potential with no checks
unlv_tilde_crunching0Mark v.bad words for tilde crunch
hocr_font_info
hocr_char_boxes
クランチ早期マージテス失敗
クランチ_アーリー_コンバート_バッド_unlv_chs
ひどいゴミ
クランチ_leave_ok_strings
crunch_accept_ok1Use acceptability in okstring
crunch_leave_accept_strings0Don't pot crunch sensible strings
crunch_include_numerals0Fiddle alpha figures
tessedit_prefer_joined_punct0Reward punctuation joins
tessedit_write_block_separators0Write block separators in output
tessedit_write_rep_codes0Write repetition char code
tessedit_write_unlv0Write .unlv output file
tessedit_create_txt0Write .txt output file
tessedit_create_hocr0Write .html hOCR output file
tessedit_create_alto0Write .xml ALTO file
tessedit_create_lstmbox0Write .box file for LSTM training
tessedit_create_tsv0Write .tsv output file
tessedit_create_wordstrbox0Write WordStr format .box output file
tessedit_create_pdf0Write .pdf output file
textonly_pdf0Create PDF with only one invisible text layer
suspect_constrain_1Il0UNLV keep 1Il chars rejected
tessedit_minimal_rejection0Only reject tess failures
tessedit_zero_rejection0Don't reject ANYTHING
tessedit_word_for_word0Make output have exactly one word per WERD
tessedit_zero_kelvin_rejection0Don't reject ANYTHING AT ALL
tessedit_rejection_debug0Adaption debug
tessedit_flip_0O1Contextual 0O O0 flips
rej_trust_doc_dawg0Use DOC dawg in 11l conf. detector
rej_1Il_use_dict_word
rej_1Il_trust_permuter_type1Don't double check
rej_use_tess_accepted
rej_use_tess_blanks
良いパーミッションの使用を拒否
rej_use_sensible_wd
承認番号のアルファベット順
tessedit_create_boxfile
tessedit_write_images
インタラクティブ表示モード
tessedit_override_permuter
tessedit_use_primary_params_model
textord_tabfind_show_vlines
textord_use_cjk_fp_model
poly_allow_detailed_fx
tessedit_init_config_only
テキスト式検出
textord_tabfind_vertical_text
テキストord_tabfind_force_vertical_text
単語間のスペースを保持する
pageseg_apply_music_mask
テキストコードシングルハイトモード
tosp_old_to_method
TOSP_OLD_TO_CONSTRIN_SP_KN
tosp_only_use_prop_rows
tosp_force_wordbreak_on_punct
tosp_use_pre_chopping
tosp_old_to_bug_fix
tosp_block_use_cert_spaces
tosp_row_use_cert_spaces
tosp_narrow_blobs_not_cert
tosp_row_use_cert_spaces1
tosp_recovery_isolated_row_stats
tosp_only_small_gaps_for_kern。
tosp_all_flips_fuzzy
tosp_fuzzy_limit_all
textord_no_rejects
textord_show_blobs
テキスト表示ボックス
テキストワードノイズ
テキストードノイズ再行
テキストコードノイズデバッグ
分類学習デバッグ文字列
ユーザー単語ファイル
ユーザー単語の接尾辞
ユーザーパターンファイル
ユーザーパターンサフィックス
出力曖昧語ファイル
デバッグ用の単語
tessedit_char_ブラックリスト
tessedit_char_whitelist
tessedit_char_ブラックリスト解除
tessedit_write_params_to_fileWrite all parameters to the given file.
ボックス露出パターンを適用する
chs_leading_punct('`"
chs_trailing_punct1
chs_trailing_punct2)'`"
アウトライン_奇数%|標準外のアウトライン数
outlines_2ij!?%":;標準外のアウトライン数
数値句読点。、Punct. chs expected WITHIN numbers
認識されない文字|Output char for unidentified blobs
ok_repeated_ch_non_alphanum_wds-?*=Allow NN to unrej
競合セットI_l_1イル1 []Il1 conflict set
ファイルタイプ.tifFilename extension
tessedit_load_sublangsList of languages to load with this one
ページセパレーター
文字の標準範囲を分類する
分類最大評価比率
分類最大確実性マージン
マッチャーの良好なしきい値
マッチャー_信頼性の高い適応結果
マッチャー完全しきい値
マッチャー_悪い_マッチ_パッド
マッチャーレーティングマージン
マッチャー平均ノイズサイズ
マッチャークラスタリング最大角度デルタ
不適合ジャンクペナルティの分類
評価スケール
確実性スケール
tessedit_class_miss_scale
適応剪定係数を分類する
適応剪定しきい値の分類
文字断片分類_ガベージ確実性しきい値
スペックル_large_max_size
スペックル評価ペナルティ
xheight_penalty_subscripts
xheight_penalty_inconsistent
セグメントペナルティ辞書頻出単語
セグメントペナルティ辞書ケースOK
セグメントペナルティ辞書ケース不良
セグメントペナルティ辞書非単語
確実性スケール20Certainty scaling factor
stopper_nondict_certainty_base-2.5Certainty threshold for non-dict words
stopper_phase2_certainty_rejection_offset1Reject certainty offset
stopper_certainty_per_char-0.5Certainty to add for each dict char above small word size.
stopper_allowable_character_badness3Max certaintly variation allowed in a word (in sigma)
doc_dict_pending_threshold0Worst certainty for using pending dictionary
doc_dict_確実性しきい値
tessedit_certainty_threshold
chop_split_dist_knob0.5Split length adjustment
chop_overlap_knob0.9Split overlap adjustment
chop_center_knob0.15Split center adjustment
chop_sharpness_knob0.06Split sharpness adjustment
chop_width_change_knob5Width change adjustment
chop_ok_split100OK split limit
chop_good_split50Good split limit
セグメント検索最大文字数比率
最良の結果を得るためには、OCRを適用する前にIronOCRの[画像前処理フィルター](https://ironsoftware.com/csharp/ocr/examples/ocr-image-filters-for-net-tesseract/)を使用することをお勧めします。 これらのフィルタは、特に[低品質スキャン](https://ironsoftware.com/csharp/ocr/examples/ocr-low-quality-scans-tesseract/)や[表](https://ironsoftware.com/csharp/ocr/examples/read-table-in-document/)のような複雑なドキュメントを扱うときに、劇的に精度を向上させることができます。

よくある質問

C#でのOCRのためのIronTesseractの設定方法は?

IronTesseractを設定するには、IronTesseractインスタンスを作成し、LanguageやConfigurationなどのプロパティを設定します。OCR言語(125のサポート言語から)を指定し、BarCode読み取りを有効にし、検索可能なPDF出力を設定し、文字のホワイトリストを設定することができます。例えば: var tesseract = new IronOcr.IronTesseract { Language = IronOcr.OcrLanguage.English, Configuration = new IronOcr.TesseractConfiguration { ReadBarCodes = false, RenderSearchablePdf = true } }.};

IronTesseractはどのような入力フォーマットに対応していますか?

IronTesseractはOcrInputクラスを通して様々な入力フォーマットを受け入れます。画像(PNG、JPGなど)、PDFファイル、スキャンしたドキュメントを処理することができます。OcrInputクラスは、これらの異なるフォーマットを読み込むための柔軟なメソッドを提供しており、テキストを含むほぼ全てのドキュメントに対してOCRを簡単に実行することができます。

IronTesseractを使ってテキストと一緒にBarCodeを読むことはできますか?

IronTesseractには高度なバーコード読み取り機能があります。TesseractConfigurationでReadBarCodes = trueを設定することでバーコード検出を有効にすることができます。これにより、一度のOCR操作で同じドキュメントからテキストとバーコードの両方のデータを抽出することができます。

スキャンした文書から検索可能なPDFを作成するには?

IronTesseractは、TesseractConfigurationでRenderSearchablePdf = trueを設定することで、スキャンした文書や画像を検索可能なPDFに変換することができます。これにより、元のドキュメントの外観を維持したまま、テキストが選択可能で検索可能なPDFファイルが作成されます。

IronTesseractはどの言語のOCRをサポートしていますか?

IronTesseractはテキスト認識のために125の国際言語をサポートしています。IronOcr.OcrLanguage.English、スペイン語、中国語、アラビア語など、IronTesseractインスタンスのLanguageプロパティを設定することで言語を指定することができます。

OCR時に認識される文字を制限することはできますか?

はい、IronTesseractではTesseractConfigurationのWhiteListCharactersプロパティを通して文字のホワイトリストとブラックリストが可能です。この機能は、認識対象を英数字のみに限定するなど、想定される文字セットがわかっている場合に精度の向上に役立ちます。

複数の文書を同時にOCRするにはどうすればよいですか?

IronTesseractはバッチ処理のためのマルチスレッド機能をサポートしています。並列処理を活用して複数のドキュメントを同時にOCRすることができ、大量の画像やPDFを扱う際のパフォーマンスを大幅に向上させます。

IronOCRはどのバージョンのTesseractを使用していますか?

IronOCRは、Iron Tesseractとして知られるTesseract 5のカスタマイズされ最適化されたバージョンを使用しています。この強化されたエンジンは、.NETアプリケーションとの互換性を維持しながら、標準的なTesseractの実装に比べて精度とパフォーマンスを向上させています。

カーティス・チャウ
テクニカルライター

Curtis Chauは、カールトン大学でコンピュータサイエンスの学士号を取得し、Node.js、TypeScript、JavaScript、およびReactに精通したフロントエンド開発を専門としています。直感的で美しいユーザーインターフェースを作成することに情熱を持ち、Curtisは現代のフレームワークを用いた開発や、構造の良い視覚的に魅力的なマニュアルの作成を楽しんでいます。

開発以外にも、CurtisはIoT(Internet of Things)への強い関心を持ち、ハードウェアとソフトウェアの統合方法を模索しています。余暇には、ゲームをしたりDiscordボットを作成したりして、技術に対する愛情と創造性を組み合わせています。

レビュー済み
Jeff Fritz
Jeffrey T. Fritz
プリンシパルプログラムマネージャー - .NETコミュニティチーム
Jeffはまた、.NETとVisual Studioチームのプリンシパルプログラムマネージャーです。彼は.NET Conf仮想会議シリーズのエグゼクティブプロデューサーであり、週に二回放送される開発者向けライブストリーム『Fritz and Friends』のホストを務め、テクノロジーについて話すことや視聴者と一緒にコードを書くことをしています。Jeffはワークショップ、プレゼンテーション、およびMicrosoft Build、Microsoft Ignite、.NET Conf、Microsoft MVPサミットを含む最大のMicrosoft開発者イベントのコンテンツを企画しています。
準備はできましたか?
Nuget ダウンロード 5,299,091 | バージョン: 2025.12 リリース