0

輪郭で表示

アメリカ出張中に、こういう輪郭だけの表示もありかなと思って作ってみたけどまだ実機で試してないからわからないんだった
そのうちやる。

輪郭表示


■ダウンロ〜ド



■参考
この2つを合体させた。


■boostでprintf風の文字列フォーマット
boost::formatを使う。
#include <boost/format.hpp>
using namespace std;
using namespace boost;
const int INIT_TIME = 50;
cout << str(format("輝度平均 %d/%d") % i % INIT_TIME) << endl;


■ソースコード
bgsubavg-contour/image.cpp
#include <cv.h>
#include <highgui.h>
#include <ctype.h>
#include <stdio.h>
#include <iostream>
#include <boost/format.hpp>

using namespace std;
using namespace boost;

int main(int argc, char **argv)
{
  const int INIT_TIME = 50;
  const double BG_RATIO = 0.02; // 背景領域更新レート
  const double OBJ_RATIO = 0.005; // 物体領域更新レート
  const double Zeta = 10.0;
  IplImage *img = NULL;

  CvMemStorage* storage_contour = cvCreateMemStorage(0);
  CvSeq* find_contour = NULL;

  CvCapture *capture = NULL;
  capture = cvCreateCameraCapture(0);
  //capture = cvCaptureFromAVI("test.avi");
  if(capture == NULL){
    cerr << "capture device not found!!" << endl;
    return -1;
  }

  img = cvQueryFrame(capture);
  CvSize size = cvSize(img->width, img->height);

  IplImage *imgAverage = cvCreateImage(size, IPL_DEPTH_32F, 3);
  IplImage *imgSgm = cvCreateImage(size, IPL_DEPTH_32F, 3);
  IplImage *imgTmp = cvCreateImage(size, IPL_DEPTH_32F, 3);
  IplImage *img_lower = cvCreateImage(size, IPL_DEPTH_32F, 3);
  IplImage *img_upper = cvCreateImage(size, IPL_DEPTH_32F, 3);
  IplImage *imgSilhouette = cvCreateImage(size, IPL_DEPTH_8U, 1);
  IplImage *imgSilhouetteInv = cvCreateImage(size, IPL_DEPTH_8U, 1);
  IplImage *imgResult = cvCreateImage(size, IPL_DEPTH_8U, 1);
  IplImage *imgContour = cvCreateImage(size, IPL_DEPTH_8U, 1);
  IplImage *imgSilhouette_p = cvCreateImage(size, IPL_DEPTH_8U, 1);

  cout << "背景初期化中..." << endl;
  cvSetZero(imgAverage);
  for(int i = 0; i < INIT_TIME; i++){
    img = cvQueryFrame(capture);
    cvAcc(img, imgAverage);
    cout << str(format("輝度平均 %d/%d") % i % INIT_TIME) << endl;
  }
  cvConvertScale(imgAverage, imgAverage, 1.0 / INIT_TIME);
  cvSetZero(imgSgm);
  for(int i = 0; i < INIT_TIME; i++){
    img = cvQueryFrame(capture);
    cvConvert(img, imgTmp);
    cvSub(imgTmp, imgAverage, imgTmp);
    cvPow(imgTmp, imgTmp, 2.0);
    cvConvertScale(imgTmp, imgTmp, 2.0);
    cvPow(imgTmp, imgTmp, 0.5);
    cvAcc(imgTmp, imgSgm);
    cout << str(format("輝度振幅 %d/%d") % i % INIT_TIME) << endl;
  }
  cvConvertScale(imgSgm, imgSgm, 1.0 / INIT_TIME);
  cout << "背景初期化完了" << endl;

  char winNameCapture[] = "Capture";
  char winNameSilhouette[] = "Silhouette";
  char winNameContour[] = "Contour";
  cvNamedWindow(winNameCapture, CV_WINDOW_AUTOSIZE);
  cvNamedWindow(winNameSilhouette, CV_WINDOW_AUTOSIZE);
  cvNamedWindow(winNameContour, CV_WINDOW_AUTOSIZE);
  
  bool isStop = false;
  while(1){
    if(!isStop){
      img = cvQueryFrame(capture);
      if(img == NULL) break;
      cvConvert(img, imgTmp);

      // 輝度範囲
      cvSub(imgAverage, imgSgm, img_lower);
      cvSubS(img_lower, cvScalarAll(Zeta), img_lower);
      cvAdd(imgAverage, imgSgm, img_upper);
      cvAddS(img_upper, cvScalarAll(Zeta), img_upper);
      cvInRange(imgTmp, img_lower, img_upper, imgSilhouette);

      // 輝度振幅
      cvSub(imgTmp, imgAverage, imgTmp);
      cvPow(imgTmp, imgTmp, 2.0);
      cvConvertScale(imgTmp, imgTmp, 2.0);
      cvPow(imgTmp, imgTmp, 0.5);

      // 背景領域を更新
      cvRunningAvg(img, imgAverage, BG_RATIO, imgSilhouette);
      cvRunningAvg(imgTmp, imgSgm, BG_RATIO, imgSilhouette);

      // 物体領域を更新
      cvNot(imgSilhouette, imgSilhouetteInv);
      cvRunningAvg(imgTmp, imgSgm, OBJ_RATIO, imgSilhouetteInv);

      cvErode(imgSilhouette, imgSilhouette, NULL, 2); // 収縮
      cvDilate(imgSilhouette, imgSilhouette, NULL, 4); // 膨張
      cvErode(imgSilhouette, imgSilhouette, NULL, 2); // 収縮
      cvAnd(imgSilhouette, imgSilhouette_p, imgResult);
      
      // 輪郭抽出、青線で囲む
      int contour_num = cvFindContours(cvCloneImage(imgResult), storage_contour, &find_contour,
       sizeof(CvContour), CV_RETR_LIST, CV_CHAIN_APPROX_NONE, 
       cvPoint(0,0));
      CvScalar white = CV_RGB(255,255,255);
      cvSetZero(imgContour);
      cvDrawContours(imgContour, find_contour, white, white, 2, 2, 8, cvPoint(0,0));
      cvNot(imgContour, imgContour);

      cvShowImage(winNameCapture, img);
      cvShowImage(winNameSilhouette, imgResult);
      cvShowImage(winNameContour, imgContour);
      cvCopy(imgSilhouette, imgSilhouette_p);
    }
    int waitKey = cvWaitKey(33);
    if(waitKey == 'q') break;
    if(waitKey == ' '){
      isStop = !isStop;
      if(isStop) cout << "stop" << endl;
      else cout << "start" << endl;
    }
  }  
    
  cvReleaseCapture(&capture);
  cvDestroyWindow(winNameCapture);
  cvDestroyWindow(winNameSilhouette);
  cvDestroyWindow(winNameContour);
  return 0;
}


Makefile
SRC = image.cpp
DST = image

prefix=/opt/local
INCPATH=$(prefix)/include
LIBPATH=$(prefix)/lib 

OPT= -lcv -lcvaux -lcxcore -lhighgui 

CC=g++ -O

CFLAGS= -I$(INCPATH)/opencv
LDFLAGS=-L. -L$(LIBPATH) 


all:
$(CC) $(SRC)  -o $(DST) $(CFLAGS)  $(LDFLAGS) $(OPT)

0

OpenCVのhaar-like特徴分類器の確認ツール

3週間ぐらい前に作った、OpenCVのhaarcascadeで認識した部分に円を描画するツールがけっこう便利なので公開する。
Mac OSXおよびUbuntu用でOpenCV1.0とboostが入ってれば動くはず。

OpenCVをダウンロードして付いてくるサンプルにも似た物が入ってるけど、カメラや動画や画像を入力としてGUIで表示するものだった。

俺は大量の静止画を判定して振り分けたりしたかったので、認識した物体の位置とサイズをスクリプト言語で受け取るために標準出力したり、マーキングした後の画像をファイル名を指定して保存したり、プレビューウィンドウを出すか選べるように改造した。

それと今後のためにboostとOpenCVを同時に使ってみたかったというのもある。
パラメータの解析にはboost::program_optionsを使って、画像まわりは全部OpenCVで書いてある。


■ダウンロード

MacとUbuntu用のMakefileつき。それぞれportとaptでOpenCVとboostをインストールしてあればmakeできる


■実行例
ふつうに顔認識。プレビューウィンドウも出す。結果はresult.jpgに保存。
haartest -p -c ~/haarcascades/haarcascade_frontalface_default.xml -p -i ~/Pictures/faces/shokai-umbrella.jpg -o result.jpg
detect face


sourceforgeのOpenCVのリポジトリの開発版に、目にマッチするhaarcascadeファイルがあるので持ってきて使った。目に似ている部分がたくさんあるので誤認識した。
haartest -p -c ~/haarcascades/haarcascade_mcs_righteye.xml -p -i ~/Pictures/faces/emushi-2face.jpg -o --nogray
emushi-2face.jpg_haarcascade_mcs_mouth



■boost::program_optionsで引数を取る
引数なし、もしくは–helpで実行するとこんなのが出るようにしてある。
cascadeとinputが必要です
options:
-h [ --help ] ヘルプを表示
-c [ --cascade ] arg haarcascade設定ファイル
-i [ --input ] arg 入力画像ファイル名
-o [ --output ] arg 出力ファイル名
-p [ --preview ] プレビュー表示
-f [ --flip ] 左右反転した画像も判定(青でマーク)
--nogray グレースケール、ヒストグラム均一化せずに判定
–input shokai.jpgとか-i shokai.jpgとかで引数を指定。(inputもiも同じとみなすようにヒモ付けできる)
左右反転は、左右非対称なものを認識する時に使える。右手のひら判定で左手も検出したい時とか。


詳しくは下記へ

ちなみにprogram_optionsで取った引数をOpenCVに渡すときは
cvLoadImage( argmap["input"].as<string>().c_str() )
のような感じでC++のstring型からCのchar配列にcastして渡す。


■スクリプト言語から使う
Rubyのワンライナーからディレクトリ内のJPG画像をまとめて顔認識して結果をresultsディレクトリに保存する例
mkdir results
ruby -e 'Dir.glob("*.jpg").each{|f| `haartest -c ~/haarcascades/haarcascade_frontalface_default.xml -i #{f} -o results/#{f}`}'



■コード
haartest.cpp
#include "cv.h"
#include "highgui.h"
#include <boost/program_options.hpp>
#include <iostream>
using namespace boost;
using namespace std;

void detect_draw(IplImage *img, IplImage *dst, CvHaarClassifierCascade *cascade, CvScalar color, bool isFlip);

int main(int argc, char* argv[]) {
  program_options::options_description opts("options");
  opts.add_options()
    ("help,h", "ヘルプを表示")
    ("cascade,c", program_options::value<string>(), "haarcascade設定ファイル")
    ("input,i", program_options::value<string>(), "入力画像ファイル名")
    ("output,o", program_options::value<string>(), "出力ファイル名")
    ("preview,p", "プレビュー表示")
    ("flip,f","左右反転した画像も判定(青でマーク)")
    ("nogray", "グレースケール、ヒストグラム均一化せずに判定");
  program_options::variables_map argmap;
  program_options::store(parse_command_line(argc, argv, opts), argmap);
  program_options::notify(argmap);
  if (argmap.count("help") || !argmap.count("cascade") || !argmap.count("input")) {
    cerr << "cascadeとinputが必要です" << endl;
    cerr << opts << endl;
    return 1;
  }
  
  CvHaarClassifierCascade *cascade;
  cascade = (CvHaarClassifierCascade*)cvLoad(argmap["cascade"].as<string>().c_str(), 0, 0, 0);
  if(!cascade){
    cerr << "error! Cascade not Found" << endl;
    return -1;
  }
  
  IplImage *image = cvLoadImage(argmap["input"].as<string>().c_str());
  IplImage *image_orig = cvCreateImage(cvSize(image->width, image->height), 8, 3);
  cvCopy(image, image_orig);
  if(!image){
    cerr << "error! Image File not Found" << endl;
    return -11;
  }

  if(!argmap.count("nogray")){
    IplImage* gray = cvCreateImage(cvSize(image->width, image->height), 8, 1);
    cvCvtColor(image, gray, CV_BGR2GRAY);
    cvEqualizeHist(gray, gray);
    image = gray;
  }
  
  if(argmap.count("preview")||argmap.count("output")){
    detect_draw(image, image_orig, cascade, CV_RGB(255, 0, 0), false);
    if(argmap.count("flip")){
      cvFlip(image, image);
      detect_draw(image, image_orig, cascade, CV_RGB(0, 0, 255), true);
    }
  }

  if(argmap.count("output")){
    string out_filename = argmap["output"].as<string>();
    cout << "save! " << out_filename << endl;
    cvSaveImage(out_filename.c_str(), image_orig);
  }
  
  if(argmap.count("preview")){
    char winName[] = "haarcascade test";
    cvNamedWindow(winName, CV_WINDOW_AUTOSIZE);
    cvShowImage(winName, image_orig);
    while (1) {
      if (cvWaitKey(1) == 'q') break;
    }
    cvDestroyWindow(winName);
  }
  
  cvReleaseImage(&image);
  cvReleaseImage(&image_orig);
  return 0;
}

void detect_draw(IplImage *img, IplImage *dst, CvHaarClassifierCascade *cascade, CvScalar color, bool isFlip = false){
  CvMemStorage *storage = 0;
  storage = cvCreateMemStorage(0);
  CvSeq* faces = cvHaarDetectObjects(img, cascade, storage,
                                     1.1, 2, CV_HAAR_DO_CANNY_PRUNING,
                                      cvSize(30, 30));

  for(int i = 0; i < faces->total; i++){
    CvRect *rect = (CvRect*)cvGetSeqElem(faces, i);
    cout << "x:" << rect->x << ", y:" << rect->y
         << ", width:" << rect->width << ", height:" << rect->height << endl;
    CvPoint center;
    center.x = rect->x + rect->width/2.0;
    center.y = rect->y + rect->height/2.0;
    if(isFlip){
      center.x = dst->width - center.x;
      center.y = dst->height - center.y;
    }
    int r = (rect->width + rect->height)/4.0;
    cvCircle(dst, center, r, color, 2, CV_AA, 0);
  }
}


Makefile (Mac用)
# Mac用Makefile
SRC = haartest.cpp
DST = haartest

prefix=/opt/local
INCPATH=$(prefix)/include
LIBPATH=$(prefix)/lib

CV_LIBS= -lcv -lcvaux -lcxcore -lhighgui
BOOST_LIBS= $(LIBPATH)/libboost_program_options-mt.dylib

all:
g++ -O $(SRC) -o $(DST) -I$(INCPATH)/opencv -L. -L$(LIBPATH) $(CV_LIBS) -I$(INCPATH)/boost $(BOOST_LIBS)


Makefile (Linux用)
# Ubuntu用Makefile
SRC = haartest.cpp
DST = haartest

prefix=/usr
INCPATH=$(prefix)/include
LIBPATH=$(prefix)/lib

CV_LIBS= -lcv -lcvaux -lcxcore -lhighgui
BOOST_LIBS= $(LIBPATH)/libboost_program_options-mt.a

all:
g++ -O $(SRC) -o $(DST) -I$(INCPATH)/opencv -L. -L$(LIBPATH) $(CV_LIBS) -I$(INCPATH)/boost $(BOOST_LIBS)

0

WP PubSubHubbubインストール

wordpressのPubSubHubbubプラグインをインストールした。
WordPress › WP Pubsubhubbub WordPress Plugins

でもプラグインが動いてないような・・・LDRもGoogleReaderも即更新はされない。よくわからないけどgoogle側が調子悪いのかもしれないししばらく様子見する。

cd wp-content/plugins
wget http://downloads.wordpress.org/plugin/wp-pubsubhubbub.zip
unzip wp-pubsubhubbub.zip
rm wp-pubsubhubbub.zip

管理画面から有効化するだけ。

0

WordPress Related Posts Pluginインストール

このblog(wordpress)で使っているinoveテーマをアップデートしたので、LDRize/AutoPagerizeが動くようにするためにmicroformatsを埋め込んだりやってたらwp23_related_postsというプラグインがあるか判定をしている箇所があった。

調べてみた。発見した。記事のtagで類似度を判定して似た記事のリストを返すプラグインだった。
たぶん本文は解析してない。


インストールしよう

cd wp-content/plugins
wget http://downloads.wordpress.org/plugin/wordpress-23-related-posts-plugin.1.0.zip
unzip wordpress-23-related-posts-plugin.1.0.zip
rm wordpress-23-related-posts-plugin.1.0.zip

wordpressの管理画面からpluginを有効化すると、設定タブの下の方にWordPress Related Postsという設定項目が現れる。
表示する記事数などが設定できる。
inoveテーマではwp23_related_postsがあるか確認して表示しているけど、設定画面から記事の下に自動的に挿入するというオプションもある。

if(function_exists('wp23_related_posts')) {
  wp23_related_posts();
}

1

apache2のサブディレクトリをthinで起動してるsinatraにプロキシする

SinatraやRailsは開発は楽だけどデプロイ方法がいろいろあって悩む。
最近はpassengerを使う方法が流行ってるけど、あいにく学校に置いたサーバーでサブドメインが使えないので同一ホスト名でapacheと共存させるしかない。

passengerでもRailsBaseURIだったか?を設定すればサブディレクトリでRack対応アプリを動かせるが、
今回は1年前からRails+mongrelのデプロイに使っているapache2のサブディレクトリをmongrelで起動してるrailsにプロキシする – 橋本詳解と同じ方法でSinatra+Thinをデプロイした。
Railsではmongrel_clusterで複数起動させたrailsにapache2のmod_proxy_balancerでアクセスを割り振ったが、同じ設定でsinatra+thinにも割り振れる。

結果、橋本商会 Twitterの地名なうbotを全blockするOAuthアプリで作ったアプリのURLをport番号むきだし状態から http://shokai.mag.keio.ac.jp/block_nowbots/ という良いURLに変更できた。ちゃんと他のrailsアプリとも共存できてる
今は10個起動したthinにapacheがアクセスを割り振っている。


■thinでsinatraを動かす
まず単純にthinを1プロセスだけ起動してsinatraが動くかどうかチェックしておく

sudo gem install thin

起動にはアプリ本体と、config.ruが必要

main.rb
#!/usr/bin/env ruby
require 'rubygems'
require 'sinatra'
require 'rack'

get '/' do
end
thinから起動するためにrackをrequireしておく。


config.ru
require 'rubygems'
require 'sinatra'

require 'main.rb'
run Sinatra::Application


logやpid、静的ファイルを置く場所を作る
mkdir log
mkdir public
mkdir tmp
mkdir tmp/pids


まず普通に起動させてみる。とくにpublicやtmpディレクトリの位置を指定する必要ない。ディレクトリがあればそれぞれの機能は有効化されるし無くても特にエラーは出ないみたい
thin start -R config.ru
ctrl+Cで終了。



■apache2のmod_proxy_balancerでアクセスをthinに振り分ける

mod_proxy有効化
sudo a2enmod proxy_balancer 
sudo a2enmod proxy
sudo a2enmod proxy_http


/etc/apache2/mods-available/proxy.conf
<IfModule mod_proxy.c>
ProxyRequests Off

<Proxy *>
Order deny,allow
Allow from all
</Proxy>

</IfModule>


/etc/apache2/conf.d/your-app-name.conf
ProxyPreserveHost Off
ProxyRequests Off

<Proxy *>
Order deny,allow
Allow from all
</Proxy>

ProxyPass /appname balancer://appname
ProxyPassReverse /appname balancer://appname

<Proxy balancer://appname>
BalancerMember http://127.0.0.1:4040 loadfactor=10
BalancerMember http://127.0.0.1:4041 loadfactor=10
BalancerMember http://127.0.0.1:4042 loadfactor=10
BalancerMember http://127.0.0.1:4043 loadfactor=10
BalancerMember http://127.0.0.1:4044 loadfactor=10
BalancerMember http://127.0.0.1:4045 loadfactor=10
BalancerMember http://127.0.0.1:4046 loadfactor=10
BalancerMember http://127.0.0.1:4047 loadfactor=10
BalancerMember http://127.0.0.1:4048 loadfactor=10
BalancerMember http://127.0.0.1:4049 loadfactor=10
</Proxy>
こうすると
http://hostname:4040/ から http://hostname:4049/までで動いているsinatraアプリが、
http://hostname/appname/ として外からは見えるようになる。

apache2再起動
sudo /etc/init.d/apache2 restart

今後は新しいアプリを作る毎にこの your-app-name.conf を雛形にして conf.d の中に配置してapache2再起動するだけでいい。




■thinを複数起動させる
thin+sinatraを複数起動させて管理しやすくする設定ファイルを作り、mongrel_clusterみたいにする。
main.rb, config.ruと同じディレクトリにthin.ymlを置く

thin.yml
timeout: 30
log: log/thin.log
environment: production
servers: 10
daemonize: true
rackup: config.ru
port: 4040


起動
thin start -C thin.yml
これでport 4040から10(つまり4049まで)まとめてdaemonとして起動する。

停止、再起動コマンドもある。
thin stop -C thin.yml
thin restart -C thin.yml



最終的なファイルの配置こうなる。 *.logと*.pidはthinが自動生成したもの。jsや画像はpublicの下に置く。
|-- config.ru
|-- log
| |-- thin.4040.log
| |-- thin.4041.log
| |-- thin.4042.log
| |-- thin.4043.log
| |-- thin.4044.log
| |-- thin.4045.log
| |-- thin.4046.log
| |-- thin.4047.log
| |-- thin.4048.log
| `-- thin.4049.log
|-- main.rb
|-- public
| `-- shokai.jpg
|-- thin.yml
`-- tmp
`-- pids
|-- thin.4040.pid
|-- thin.4041.pid
|-- thin.4042.pid
|-- thin.4043.pid
|-- thin.4044.pid
|-- thin.4045.pid
|-- thin.4046.pid
|-- thin.4047.pid
|-- thin.4048.pid
`-- thin.4049.pid