【文字認識】OCRソフト【 自炊 】

2 :名無しさん@お腹いっぱい。:2016/08/15(月) 08:48:43.19 ID:/8XKPL210
213 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2016/08/15(月) 01:37:00.10 ID:FQ3AgcG50
>>211
教えてあげないよ
     _,∩_         _,∩_           _,∩_
    (_____)ゝ、     (_____)    y     (_____)
    / :: :: :: ヽ 〉     /-‐:: ::‐-ヽ /       / :: :: :: ヽ
   _./ (・ )ll(・ ) ∨     _/  0) i! 0) ∨      _/ ( ・)i!(・ ) ゙、_
 // :: :: ∈ゝ :: ::ヽ   // ::  ‐-‐ :: ヽ    //  :: ー一 :: ヽ\
. ゝ/:: :: ::  :: :: ::ヽ  ゝ/ :: ::  ::  :: :: ヽ   ゝ/ :: ::  ::  :: :: ヽく
   ̄ ̄ | ̄ ̄ | ̄ ̄     ̄ ̄ | ̄ ̄ | ̄ ̄     ̄ ̄ | ̄ ̄ | ̄ ̄
       |     |             |     |             |     |
    ⊂!     !つ        ⊂!     !つ        ⊂!     !つ

ジャン♪

3 :名無しさん@お腹いっぱい。:2016/09/16(金) 18:53:31.42 ID:xb+uDKDF0
個人的には流行ってほしいジャンルだけど
基本シェアウェアだしスレの伸び見ても需要無いんだな

4 :名無しさん@お腹いっぱい。:2016/10/18(火) 21:15:57.03 ID:8+1fcpg80
OCRソフト 製品版

メディアドライブ(株)
 e.Typist v.15.0   58ヵ国語対応   直販価格   19,800円(税別)
 e.Typist NEO v.15.0   日本語・英語のみ   直販価格   12,190円(税別)
体験版アリ
   http://mediadrive.jp/products/et/index11.html

パナソニックソリューションテクノロジー(株)
 読取革命Ver.15         直販価格   12,800(税別)
(読取革命Ver.15 lite for Mac同梱)
体験版アリ
   http://www.panasonic.com/jp/company/pstc/products/yomikaku/demo.html

ソースネクスト(株)
本格読取4            直販価格   3,400円(税別)
(読取革命の旧製品の再パッケージ版)
   http://www.sourcenext.com/product/pc/use/pc_use_000941/

5 :名無しさん@お腹いっぱい。:2016/10/18(火) 21:20:32.53 ID:8+1fcpg80
現行の出回ってる製品くらい並べろよ>1と思ったら、なんだ? NGワードって?

6 :名無しさん@お腹いっぱい。:2016/10/18(火) 21:29:38.69 ID:8+1fcpg80
>4に続けて以下のをアップしたかったんだけど、NGワード食らって弾かれるな…。

(株)データデジタルのRealReader Lite 8
(株)エーディーディーのABBYY FineReader 12
アンテナハウス(株)の瞬簡PDF OCR
Rene.E LaboratoryのRenee PDF Aide

7 :名無しさん@お腹いっぱい。:2016/10/19(水) 21:34:25.77 ID:rrkqSMxv0
無料で使えるOCR

46ヶ国の言語に対応した無料で使えるオンラインOCR
Online OCR
   http://www.onlineocr.net

日本語の解説はココが分かりやすいかも
寝ログ
   http://nelog.jp/online-ocr

試してみたが確かにすげえ。
縦書き日本語にも対応していて認識率も悪くない。
ユーザー登録すればできることはさらに増えるが、
でも先方のサーバーにデータが残るということが
不安を拭いきれない。

hpが開発しgoogleが公開したオープンソースOCRソフト
tesseract-ocr
   https://github.com/tesseract-ocr/tesseract

オープンソースゆえWindows版も当然あるが、有償無償を問わず
ロクなOCRソフトがないMac/Linuxユーザーはこぞってコマンドラインで
コイツを使うことになる。
スマホ用OCRアプリも含め、コイツを中身に使っているOCRソフトは
少なくない。

8 :名無しさん@お腹いっぱい。:2016/10/27(木) 14:01:52.20 ID:Lf4Jkeck0
Googleドキュメントに丸投げが1番楽で精度も高い
つまり上で名前の上がってるようなソフトは今や全てゴミ

9 :名無しさん@お腹いっぱい。:2016/10/28(金) 14:32:27.82 ID:F8pwlOl00
>>8
ファイルサイズが2MB制限だった。
これでは使い物にならない
ゴミとしか言いようがない

10 :名無しさん@お腹いっぱい。:2016/11/14(月) 10:01:44.38 ID:DfhqfMU20
acrobat以外でバラのpdfファイル一括OCR処理できるソフトないんかな。
今まではacrobatのフォルダ(500個ほどのファイル)ごと投げてたんだけど、特定のファイルで毎回止まってて使い物にならん。

11 :名無しさん@お腹いっぱい。:2016/11/23(水) 20:08:39.03 ID:egsPu78e0
>>10
結局e.typistで保存するときの、ファイルごとに保存できたから、解決した。

12 :名無しさん@お腹いっぱい。:2016/11/30(水) 19:15:21.26 ID:7ipzPm4D0
はじめまして。

現在OCR ソフト作っているものです。

スマホで出来ます。
現在うまく行っております。

13 :名無しさん@お腹いっぱい。:2016/12/26(月) 01:47:37.00 ID:v6AIeIuc0
スマホでOCR

カメラを内臓しているスマホの方が『買い物した直後にレシートをスキャンしてテキスト化したい』
という需要を満たせるせいか、Windows用ソフトが先細っている間に『Google Cloud Vision API』
という流行りのAIとかディープラーニングの技術を投入したAPIをOCRエンジンにしたスマホアプリが
公開されて成果をあげている模様。

結局自炊にはtesseract-ocrか?

で、この『Google Cloud Vision API』という奴、すこぶる評判が良いを通り越して
『もし的中率100%の占い師とか予想屋が実在したら?』レベルの優秀さだとすると、

自炊でのテキスト化に使用
 →正解率が高すぎて手直しの必要がほとんどない
  →著作権侵害の温床になりかねない

という名目で、一万円程度のPC用ソフトに搭載されることはないような気がします。

本当はひらがなとカタカナの『へべぺ』『エ工』『口ロ』『ト卜』『タ夕』といった光学的な識別だけ
では限度があるケースを前後の文脈から類推して判別してほしいケースにこそAIとかディープラーニング
の出番と言う気がしますが、ソフトを自作できるレベル以外のエンドユーザーには高嶺の花になるかも
しれません。

という訳で、なんとかしてtesseract-ocrの認識率を上げられないものでしょうか。

14 :名無しさん@お腹いっぱい。:2017/01/01(日) 03:49:51.39 ID:i4KtsT1l0
Tesseract-OCR良いね
パソコンのWindows版3.02を使ってみたけどGoogleドキュメントより精度が上だった
無料OCRツールでは一番か?
本当は最新の3.05使いたかったがうまく動かせなかった

15 :名無しさん@お腹いっぱい。:2017/01/01(日) 10:45:53.16 ID:bJoGCIrB0
>>14
Googleが一番やろ〜w

16 :名無しさん@お腹いっぱい。:2017/01/03(火) 01:48:22.51 ID:/4niW42M0
tesseract-ocrの認識率を下げないための工夫

tesseract-ocrで検索すると、認識率を上げるための学習ファイルの作り方を指南したサイトが
それなりにヒットしますが、やはり自炊を目的とした日本語縦書き300ページ程度をOCRするため
の指南役サイトは見たことがありません。仕方なく自分で試行錯誤した結果、

1.スキャンする時に解像度300dpi以上の.tiff形式で行う

※当方の環境はlinux上でtesseract-ocr3.03と3.04を試しています。

構造上ノイズだらけのjpegだと肉眼には優しくてもソフトウェアにとってはそうではないみたい
で、当初オフィス用複合機のPDFでスキャンしてjpegに変換して読み込ませてみたのですが、そ
の結果は惨憺たるものでした。

所詮はフリーソフトかとその時は思いましたが、ふと.tiffでスキャンしてOCRをかけたところ、
認識率が飛躍的に向上しました。

ちなみに.tiffには拡張子が同じでも複数規格があり、
FujiXeroxの複合機でスキャンする=CCITT Bilevel Encodings G4 FAX T.6
リコーの複合機でスキャンする=CCITT Bilevel Encodings G3 FAX T.4
という圧縮がかかった.tiffファイルが得られます。

どちらも黒白二値で圧縮された形式なので、ページ一枚がjpegだと256KB程度がtiff-G4だと
25.6KB程度、tiff-G3だとその四割増し程度になりますが、tiff同士の認識率に違いはありませ
んでした。

なお他形式やG3からG4への変換は、IrvanVeiwとかLinuxだとImageMagickで一括変換できます
が、元がjpegからだと失われた情報が戻らないので認識率は下がります。

17 :名無しさん@お腹いっぱい。:2017/01/03(火) 02:13:20.84 ID:R8/S2ECj0
>>16
いやtesseractは認識精度低いから・・・

Cloud Vision使えよ

高画質画像もいらないから

18 :名無しさん@お腹いっぱい。:2017/01/04(水) 00:37:05.30 ID:orymQRzs0
>>16
こういう検証報告はすごい有り難いね
参考にします

19 :名無しさん@お腹いっぱい。:2017/01/05(木) 20:18:24.04 ID:8PejRFef0
ちなみに>16でスキャンする元ネタをjpeg→tiffに変更してどのくらい変わったかというと、

文中の“由美子”というヒロインの名前が、from-jpegスキャンからだと、

由美F   由美汗  由芙干  山芙杆  …芙杆
由美P   由美浙  由芙折  山芙F   …芙浙
由美f   由美肝  由芙於  山芙f   …芙肝
由美そ  由美託  由芙旛  山芙そ  …芙託
由美ア  由美醇  由芙杆  山芙ヂ  …美F
由美チ  由美干  由芙浙  山芙浙  …美f
由美ヂ  由美折  由芙F   山芙肝  …美肝
由美モ  由美杆  由芙f   山芙軒  …美チ
由美丑  由美壬  由芙肝  …芙F   …美竚
由美予  由芙チ  山美折  …芙P   …美升
由美争  由芙ヂ  山美肝  …芙f   …美壬
由美十  由芙丑  山美託  …芙チ  …美折
由美千  由芙予  山美升  …芙升
由美升  由芙十  山芙丑  …芙折
由美寶  由芙升  山芙十  …芙旛

これだけ豊富なバリエーション()が発生しましたが、from-tiffスキャンからだとほぼブレ
ることなく“由美子”になったので、
「こ、これはハトを殺されたタイソン並みにスゴいのではないか?」と
tesseract-ocrの秘めた実力に驚愕したものでした。

つまり条件さえ揃えばtesseract-ocrの認識率はけして悪くないというか、むしろ認識結果が
思わしくない場合は何らかの事情でスキャンする際にスポイルされた可能性があると考えて、
条件を変えてスキャンしてみるのもひとつの手かもしれません。

20 :名無しさん@お腹いっぱい。:2017/01/05(木) 20:59:02.85 ID:8PejRFef0
続・tesseract-ocrの認識率を下げないための工夫

2.不要な認識候補文字をブラックリストで指定して排除する

※当方の環境はlinux上でtesseract-ocr3.03と3.04を試しています。

以前tesseract-ocr以外のOCRソフトを使ったときのこと。帳票というか、罫線の中に数字と
カンマとピリオドしかないペーパーをスキャンして取り込むために認識候補を『英数のみ』に
設定してOCRを実行したのですが、

「なんで 2 じゃなくて Z って認識するワケ? 候補を数字だけに絞れば良さそうなのに、
なんでできないの? バカなの? 死ぬの?」

と思ったことがありました。

tesseract-ocrにはホワイトリストとブラックリストというオプションを指定することで、
認識候補文字を制限することができます。

ホワイトリスト=認識候補文字を指定した文字だけに限定する

先程の帳票認識時の様に、認識候補文字を『 0123456789., 』以内に限定したいときに
使いますが、縦書き日本語の自炊目的には使わないので今は捨て置きます。

ブラックリスト=認識候補文字を指定した文字以外に限定する

↑ちょっと変な日本語になってますが、要するに「縦書き日本語の小説にフツーはこんな記号や
文字は出てこないんだから、候補から外せば正解率上んじゃね?」ってことです。

で、実際指定したら間違いのブレ幅が確実に少なくなるので一括置換で修正もやり易くなる
のですが、tesseract-ocr blacklist で検索しても、何故かほとんどヒットしませんでした。

21 :名無しさん@お腹いっぱい。:2017/01/05(木) 22:06:35.47 ID:8PejRFef0
ブラックリストの指定の仕方は行頭に、

tessedit_char_blacklist

と入力して、半角スペースを挟んでNGに指定する文字を続けて列記します。

↓ブラックリストのサンプル(実際は1行に繋がっています)

tessedit_char_blacklist fhijklmnrstuvwxyzABDEFGHIJKNPQRTUVWXYZ7ぁぃぅぇぉゅゎ丿
ァィゥェォヵヶヮ_*/¥〆ゝゞヾ,.;=^‾’`”[]{}<>〈〉〔〕《》『』【】†‡°

・出現頻度からかな/カナの小文字は全部大文字にさせる
・行頭に#を入れるとその行はコメントとして無効化される

なお上記以外にも日本語には出てこない文字/記号はありますが、ある程度間違える余地を
残しておいた方が後々の校正は容易くなるはずです。

上記のブラックリストサンプルに a と c と o といった丸っこい文字を入れて排除してしまうと、
句点(。)として認識できなかったときに文字ごとエラーと見なされて消されてしまうからです。

(例)
メロスは激怒した。必ず、かの邪智暴虐じゃちぼうぎゃくの王を除かなければならぬと決意した。
メロスには政治がわからぬ。

(間違い)
メロスは激怒したc必ず、かの邪智暴虐じゃちぼうぎゃくの王を除かなければならぬと決意したa
メロスには政治がわからぬ。

(エラー)
メロスは激怒した必ず、かの邪智暴虐じゃちぼうぎゃくの王を除かなければならぬと決意した
メロスには政治がわからぬ。

22 :名無しさん@お腹いっぱい。:2017/01/06(金) 17:28:28.61 ID:1hEabIWn0
今どきディープラーニングも使わないtesseractじゃね・・・。

自作アプリに組み込んだが、
認識精度は低かったぞ。

23 :名無しさん@お腹いっぱい。:2017/01/06(金) 20:13:04.83 ID:4Q+G11jJ0
さて、それなりに吟味して作ったブラックリストの内容を記述したファイルをとりあえず

black.conf

とでも名づけて保存しておきます。

当テスト環境はLinux(LinuxBean)なので、文字コードはutf-8、改行コードはLFですが、
Windows環境でこの辺どうすべきなのか、当方には不明です。

あとはシェルスクリプトを介してtiffファイルの数だけOCR処理を繰り返し処理させれば、
マシンパワーに応じた待ち時間の末に同じ数だけtxtファイルが出来上がります。

以下点線の内側をシェルスクリプト ocr.sh として保存します。
—————-
#!/bin/bash
#連番ファイルの1009.tifから1360.tifまでblack.confファイルのブラックリストを
#参照しつつtesseract-ocrでOCR処理を繰り返す

for i in `seq 1009 1360`
do tesseract ${i}.tif ${i} -l jpn black.conf
done

24 :名無しさん@お腹いっぱい。:2017/01/06(金) 20:48:52.00 ID:4Q+G11jJ0
ちなみにLinuxではファイルとかフォルダの位置関係が重要なので、このスクリプトを
目論見どおり動作させるには、同じフォルダに必要なファイルを全部入れておく必要が
あります。トップディレクトリ直下のDocuments辺りがいいんじゃないでしょうか。
(裏を返すとファイルパスを指定することで全然別のところからも参照できます)

・OCR元のtiff画像ファイル(1009.tif〜1360.tif)
・シェルスクリプトファイル(ocr.sh)
・ブラックリストファイル(black.conf)

tiffファイルが1009から始まっているのは、スキャンした後連番リネームするときに
ノンブル(ページ番号)と同じ番号にしておくとスキャン時に重送しなかったかが
すぐ分かるので便利だからです。つまりこの本は本文が9ページから始まり360ページで
終わっているということです。4ケタなのはゼロ埋めが面倒だからです。

シェルスクリプトを実行すると、できあがったテキストファイルも同じフォルダ内に生成
されます。
・1009.txt〜1360.txt

(連番リネームやファイル連結はやっぱ古兵のvixが便利なのでwine上で愛用中)

なおtesseract-ocrには対象が縦書き文書であることを強制指定するコマンドオプションが
ありますが、これは罠です。そんなものを指定しなくても縦書き/横書きを自動認識しますし、
むしろこれを指定すると段組みを認識しなくなるので指定してはいけません。知らなかった
ばっかりに二段組を上下に分割して以下略……。

25 :名無しさん@お腹いっぱい。:2017/01/07(土) 01:26:07.83 ID:EIbs2jCQ0
>17
まあそう急くなて。

>13にもチラと書いたけど、Google Cloud Vision APIってプログラムとかアプリそのもの
じゃないから、『使え』といわれて使えるひとって既にエンドユーザーじゃないし。

そりゃ話聞くとGoogle Cloud Vision APIって、良い意味で『コレ世に出していいの?』
レベルらしいし、ある日を境に木製複葉機が一斉に時代遅れになったのも知ってるけど、
ジャンルによらず古典に親しむのは大事なことだし、何より初手からそんな最先端使って
ったら、ディープラーニング様の有り難みが感じられないじゃないですか。

変速機のないギヤ比固定のママチャリで坂道を登った経験があるからこそ、人は変速機
付きの自転車に感謝できるのだとは思いません?

で、その一方で変速機ナシの自転車でもギアを交換して坂道を登り易くすることはできない
ことじゃないんだけど、いかんせんこのtesseractってチャリは情報が少なくてね。

tesseract-ocrでどこまで行けるのか、もう少し先まで見てみたいんですよ。

クレジットカードもいらないしね。

26 :名無しさん@お腹いっぱい。:2017/01/07(土) 01:50:26.86 ID:EIbs2jCQ0
「うわっはっはっ、何を言い出すかと思えば、所詮はクレジットカード一枚作ることが
できない自宅警備員のたわごとではないか。カード一枚と引きかえに最先端のAIや
ディープラーニングが手に入る時代に、tesseract-ocrなどという旧態依然のフリーソフト
にこだわるなどとは笑止千万。本当の最先端が今やどんな高みにまで昇りつめているか、
この私がお目にかけよう」

と、白髪混じりのオールバック美食家なスーパーハカーが登場して、エンドユーザー
にもやさしく解説してくれるなら、アタシは黙って身を引くわ……。

27 :名無しさん@お腹いっぱい。:2017/01/11(水) 03:41:06.92 ID:v+HPhSP90
OCRについて検証したり語らったりできる場所ってここくらいしかないし
tesseract-ocrもなんでも小さな情報でもどんなことでも俺はウェルカムだよー
使い方見たり知ったりすればそれを生かす機会が来るときもあるかもしれないからね

28 :名無しさん@お腹いっぱい。:2017/01/12(木) 00:57:18.93 ID:DZC5mCXO0
tesseract-ocrの識字率を上げるためにスキャン画像から学習ファイルを作る手口は、
検索でヒットする幾多のサイトで指南されています。

さながら刀匠のごとく、コマンドを重ねて玉鋼から刀身を作るように順繰りに加工していく
訳ですが、Linux版tesseract-ocrのver.3.03だと途中の unicharset というコマンドが
なぜか実行できず(『そんなプログラムありません』でエラーになる)、ubuntu16.04LTS
(16年4月製長期サポート版の意)でver.3.04を試したらやっと最後の jpn.traineddata
ファイルの生成まで辿り着けたのですが、実はこれと同じ名前のファイルはすでに
アプリケーション側の設定フォルダにあります。

元の jpn.traineddata は30MB超えの、テキストエディタでも開けないようなゴツい代物で、
対する新jpn.traineddata は1MB足らず。ならばあとは旧ファイルの認識がおかしい部分に
新ファイルをマージすれば良さそうですが、その手段が何故か何処の指南役サイトにも書いて
ありません。

旧ファイルに匹敵するサイズの新ファイルをゼロから作るのは現実的ではないと思われますが、
先達がこの辺をどうしているのかは不明。

ちなみにWindows版tesseract-ocrには tesseract-box-editor というMicrosoft .Net
Framework 4.0で動作するアドオンだかがあって、それを使うと新旧ファイルをマージできる
らしいです。

「ネットに載っていないblacklistファイルまで自力で辿り着けたのはなかなかだが、jpn.traineddataが元のままなのはいただけないな」
「!」
「一週間お待ちください。本物のtesseract-ocrの実力をお目にかけますよ」

井上和彦の声で喋るオールバックのスーパーハカーの登場をお待ちしています。切実に。

29 :名無しさん@お腹いっぱい。:2017/01/12(木) 01:00:28.61 ID:DZC5mCXO0
tesseract-ocrの、30MB超えで開くことすら困難な設定ファイル jpn.traineddata。
この中には日本語認識する際のルール・ファイルが各種入っているようですが、
開けないファイルからどうやって取り出すのか、長らく謎でした。

とりあえず認識結果後の変換マッピングを司る jpn.unicharambigs に関しては、
このコマンドで掘り出して、
$ combine_tessdata -e tessdata/jpn.traineddata jpn.unicharambigs
別ファイル化して修正したのち、このコマンドで再度埋め戻せることが分かりました。
$ combine_tessdata -o tessdata/jpn.traineddata jpn.unicharambigs

tesseract-ocrはver.3.04になって認識率がやや向上し、3.03では


と二文字の並びと見なされていた縦書きの 普 がキチンと一文字と認識されます。
それでも縦書きで三点リーダーが二個(……)並ぶのは不得手らしく、認識結果は
ナカグロが六個(・・・・・・)並びます。

もっとも blacklist で認識候補の記号を制限する前は、羅列するのもバカらしいですが
順列組み合わせで200パターン以上になっていたので、それを思えば検索置換一発で修正
できるようになったのは、楽なものです。

でももっと楽になりたくて、『・ が三個連続したら、問答無用で、… 一個にする』
という修正パターンを書いてマージしたのですが、何故か反映されませんでした。

何がいけないというのでしょう?

3 ・・・ 1 … 1
2 並ョ 1 普 1 (←3.03の場合はこう書けば一文字になると思われる)

30 :名無しさん@お腹いっぱい。:2017/01/20(金) 21:05:57.72 ID:gQQqe6X80
無料で

数式OCRできる方法教えてくれ

33 :名無しさん@お腹いっぱい。:2017/03/14(火) 21:45:43.63 ID:Qc719WwL0
逆に言えば渡していい情報ならいくらでも使える。
スマホやタブでスキャンして、資格試験の暗記問題なんかをタイプウェル用のテキストにしようと
思って、試行錯誤した結果googleに落ち着いた。
なんとなくここに来たら、やっぱ同じ結論か。

あとはコンデジ使うかスマホ使うか

35 :名無しさん@そうだ選挙に行こう:2017/10/22(日) 16:02:47.94 ID:QfM7pntrG
スマホの OCR アプリ「Textスキャナ」を使って、
「日本語コメント付きのソースコード」
を読み取ろうとしたけど、全然ダメだった。

日本語はほぼ読み取れてるけど、
「’」(シングルコーテーション)は全部消えてしまうし、
アルファベットでかかれたソースコードは、
ところどころ文字が消えてしまった。

日本語を含んだソースコードを読むのに適した OCR ってないかな・・・

「OCR ソースコード」で検索すると、
オープンソースの OCR がヒットしてしまって
うまく検索できない。

38 :名無しさん@お腹いっぱい。:2018/03/05(月) 07:26:58.53 ID:wBe53wun0
ありがとうございます

39 :名無しさん@お腹いっぱい。:2018/04/07(土) 07:35:39.83 ID:H8LepRyi0
所見

サンプルの画像に対してOCRかけて
「この画像に○○のソフトでOCRかけてかけるとこういう風になりました」
ってのないの?
さすがに言葉だけじゃ微妙な感じが全然伝わらないから

43 :名無しさん@お腹いっぱい。:2018/04/08(日) 00:49:22.65 ID:VYgJDjR/0
Ubuntuで最新tesseractビルドでも高精度認識できたよー
とりあえずスクショだけ

ビルドのやり方とかは希望あればまとめます

44 :名無しさん@お腹いっぱい。:2018/04/08(日) 01:18:01.31 ID:q/iTgbtt0
>>43
そっちの方が参考になった
やっぱり文章レイアウトの認識はあんまりみたいだな

45 :名無しさん@お腹いっぱい。:2018/04/08(日) 01:19:35.90 ID:q/iTgbtt0
OCR認識に満足してる人
数式・化学式が沢山ある理科系のページをOCRかけてごらん
グチャグチャになるよ

49 :42:2018/04/12(木) 00:28:08.34 ID:EyDdIten0
他所の環境でちゃんと動くかは分からないけど
コンパイル手順を自動化したスクリプトとビルド済みパッケージ置いときます
作成&テスト環境
  windows10 WSL Ubuntu 16.04.4 LTS
  vagrant ubuntu/xenial64 (vurtualbox)

ビルド自動スクリプト –> https://www.axfc.net/u/3902696.zip
ビルド済パッケージ(.deb) -> https://www.axfc.net/u/3902697.zip

55 :名無しさん@お腹いっぱい。:2018/04/16(月) 20:17:56.21 ID:0tAKuDhz0
>>51のいちばん最初の画像を使って、Google Cloud VisionのOCRをかけてみた。

https://imgur.com/a/3TL1i

58 :名無しさん@お腹いっぱい。:2018/04/16(月) 20:56:21.22 ID:0tAKuDhz0
ただ、GCVのjson出力は文字の座標を返すので、次の文字の座標を考慮すれば縦横判定はできるかもしれない。

あと、縦横混在はさすがにきつい。
事前に画像を切り出しておくと大丈夫だけど。

レイアウトを考慮するオプションが英文だとあるけど、日本語はまだみたいw

59 :ハカーを待ちながら:2018/04/16(月) 23:01:41.54 ID:jfy34C3d0
>>55
同じ元ネタ画像をonlineOCRというサイトに投げてみた結果。
https://imgur.com/sEPqF76

改行コードが半角スペースにされているので、置換するとほぼ原文に正確な
認識結果が得られているのが分かる。

とはいえいくら優れたOCRとはいえ、誰がやっているのか分からないネットの
向こう側に金玉を握られているような状態ってのはやっぱ釈然としないのよ。

自炊行為の是非以外にも内部の文書をネットに放流するリスクとかもあるし、
Google Cloud Vision APIがとてつもなく優れているのはよく分かるんだけど、
エンドユーザーにAPIとやらを扱うのは簡単じゃないし、ネットに繋がないと
結果が得られないなら、いっそスタンドアロンのお手元のハコの中でなんとか
できる範囲で改良を……と、もう少しtesseract-ocrをいじっていたい。

最新のマシーンZが優れているのは分かるけど、共に死線をくぐってきた
ロボットマンにこだわりたかったあきらくんのように。
(コミック版「ミクロマン」はいいぞ)

まあ結局は乗り換えたんですけどね。

61 :名無しさん@お腹いっぱい。:2018/04/17(火) 00:21:57.55 ID:QTvH3ncM0
>>54
補正に関しては自炊ノウハウも確立してるので自分はわりと楽観してるわ
自力で納得のいく補正かけた後に任意のタイミングで
OCRかけられてPDFにできるというアドバンテージは大きい

程度の低い話ですまんがWindowsでOCR付き自炊PDF作ろうとすると
スキャン時にPDFで保存するか(黄ばみや斜行がひどくても後修正が困難)
後からAcrobatなどの有料ツールでPDF化するか(せっかく補正しても画質劣化する上に認識率も超残念)
ポピュラーな方法がこの2者だったのよね

62 :名無しさん@お腹いっぱい。:2018/04/17(火) 05:54:08.82
画像アップするなら .jpg まで付けてリンク張ってくれ
一々リンク先まで飛ぶのが面倒

68 :名無しさん@お腹いっぱい。:2018/04/21(土) 10:32:53.20 ID:TzRxXe7t0
ディティールの失われてる2値画像を後から弄ってもどうにもならんよ
検証用の画像はグレースケールかフルカラーでスキャンしたものを用意する
(業務用複合機だとデフォルト値が輪郭強調の超圧縮モードなのでオプション設定には注意が必要)

過去のものは従来tessaですでにデータ化済んでるんだろうし
今から再OCRのために骨折ってもしょうがない
完全移行の方向でなく単に検証のためにやってるならなおさら
紙原稿残ってるなら再スキャンしてやり直しもいいけどね

71 :sage:2018/04/23(月) 15:36:58.50 ID:3ep7Hu9S0
OCRで、ごくまれになのだけど、な-た の誤読があって。
これにまいったのが遠い思い出。されたい されない  というのは
あまりに神経を使うので、自分で校正するのを諦めた。

81 :名無しさん@お腹いっぱい。:2018/06/16(土) 09:37:39.11 ID:TK7ks+ws0
長文駄レスは過疎の元
自分語りは程々に

85 :名無しさん@お腹いっぱい。:2018/06/17(日) 14:51:45.64 ID:UW0RCtPR0
そんなルールはないぞ

91 :名無しさん@お腹いっぱい。:2018/07/11(水) 11:36:57.04 ID:exMQ5TB90
いろいろずれているな

95 :名無しさん@お腹いっぱい。:2018/07/25(水) 21:52:36.75 ID:u4/38rAZ0
>>92
まあ確かに完全テキスト至上派といえども、200ページ以上にまたがった
要・校正テキストファイルをイッキに処理できる集中力の持ち主なんてのは
完璧超人か紙一重だろうから、常人は真似できないしするべきでもないし、
確かに実際は一度に20件も開ければ十分だろう。

ただ、できるけどしない と できないからやれない とは違うから、
ツールの限界は少ないほうがいいし、選択肢は多いほうがいいと思うぞ。

せめてタブで開いた複数のファイルに対して一度に検索/置換できた方が
便利だと思うが、Windows用でご存じないか?

ちなみにBluefishもGeanyもオープンソースなソフトだから、Windows版も
実はある。

100 :名無しさん@お腹いっぱい。:2018/09/13(木) 12:21:48.97 ID:MMXNUVI90
>>99
苦手なのは国会図書館から提携図書館に送ってもらったコピー。

認識率が悪いときはコントラストとガンマ値を調整すると、それなりに読める。