としおの読書生活

田舎に住む社会人の読書記録を綴ります。 主に小説や新書の内容紹介と感想を書きます。 読書の他にもワイン、紅茶、パソコン関係などの趣味を詰め込んだブログにしたいです。

本記事ではVSCodeでターミナル起動時に自動的にconda activateを行う方法を紹介していきます。




ターミナル起動時にconda activateさせる


VSCodeを起動して左下にある歯車アイコン→設定の順でクリックしていきます。

キャプチャ

キャプチャ2

設定画面が開けたらユーザの検索ボックスにterminal.integrated.profiles.windowsと入力して検索を行います。

見つかったらsetting.jsonで編集をクリックします。

キャプチャ

Command Promptのargsを以下のように設定してください。

Anaconda3までのパスは各自の環境によって合わせましょう。

"terminal.integrated.profiles.windows": {

        "PowerShell": {
            "source""PowerShell",
            "icon""terminal-powershell",
        },
        "Command Prompt": {
            "path": [
                "${env:windir}\\Sysnative\\cmd.exe",
                "${env:windir}\\System32\\cmd.exe"
            ],
            "args": [
                "/K",
                "~\\Anaconda3\\Scripts\\activate.bat",
                "\\Anaconda3"
            ],
            "icon""terminal-cmd"
        },
        "Git Bash": {
            "source""Git Bash"
        }
    },

書き換えれたら、settings.jsonを保存してVSCodeを再起動します。

これでPythonコードを開いている状態で新しいターミナルを起動すれば自動的にActivateされるようになります。





C++で微分を実装してみたので忘備録として記録しておきます。


数値微分を実装する


f(x)=f(x+Δx)f(x)Δx

まずは典型的な上記の式の前進差分近似を使った方法で微分をしてみます。

#include <iostream>

double func(double x){
    return x*x;
}

double numericalDiff(double (*f)(double), double xdouble eps=0.001){
    return (f(x + eps) - f(x)) / eps;
}

int main(void){
    double (*pfunc)(double);
    pfunc = func;
    printf("%lf"numericalDiff(pfunc2));
    return 0;
}

4.001000

多少は誤差があるものの微分ができました。

関数ポインタを使ってnumericalDiffに微分したい関数を渡しているため、他の式に対しても微分を行うことが可能です。

また、引数epsの値を小さくすることでより精度の高い微分を多なうことができます。



誤差の少ない数値微分


前進差分近似を使うよりも中心差分近似を使った微分の方が誤差が少なくなるみたいですのでそちらも実装していきます。

先ほどのコードからnumericalDiff関数だけ以下の式に合わせて変更していきます。

f(x)=f(x+Δx)f(x - Δx)x


double numericalDiff(double (*f)(double), double xdouble eps=0.001){
    return (f(x + eps) - f(x - eps)) / (2*eps);
}

4.000000

中心差分近似を使うことで上記のサンプルに対しては誤差なく微分を行うことができました。



livedoorブログにソースコードを載せるときに途中でソースコードが見切れてしまうことがあります。

そこで今回はpreタグにoverflowプロパティを設定して、ソースコードが見切れた時にスクロールバーを表示させるようにしていきます。

livedoorブログのマイページから「プログ設定」を選択します。

キャプチャ

デザイン/ブログパーツ設定から「PC」を選択します。

キャプチャ

カスタマイズを選択します。

キャプチャ

/* 記事本文
----------------------------------------------- */

というコメントがある部分の下に以下のコードを追加します。

.article-body-inner  blockquote
, .article-body-inner  pre {
    white-space: nowrap;
    overflow: auto;
    background-color: #303030;
    padding: 5px 15px;
    margin: 5px 0;
    color: #595d68;
}

このコードは以下の記事を参考に作成したのですが、white-space: nowrap;という記述が抜けているとスクロールバーが正しく表示されないようです。



cssが記述できたら保存をクリックしてください。

これで設定完了です。

「<pre><code>ソースコード</code></pre>」といった感じに記述すると以下のようにソースコードが見切れているときにスクロールバーが表示されるようになります。

aaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaaa


4267000_s

自然言語処理関連のソフトを作る機会があり、最近のメジャーな日本語自然言語処理ライブラリとしてGiNZAというものがあるという話を聞いたので試しに使ってみました。


GiNZAとは


GiNZAとはリクルートが国立国語研究所との共同研究成果をもとに開発した日本語自然言語処理ライブ来です。

形態素解析器であるSudachiPyと機械学習部分であるspaCyを合わせたライブラリのようです。

特徴は従来のspaCyは日本語に対してはMeCabをバックエンドに形態素解析ができる程度でした。

しかし。GiNZAの登場により最先端の機械学習技術を用いた日本語自然言語処理が簡単にできるようになったようです。



GiNZAのインストール


今回は2021年9月現在GiNZAの最新バージョンであるGiNZA v5.0をインストールしていきます。

GiNZA v5はインストール時に解析モデルのパッケージを指定する必要があるようで、解析度重視の場合は以下のコマンドでインストールしましょう。

pip install -U ginza ja-ginza-electra

速度重視の場合は以下のコマンドでインストールしてください。

pip install -U ginza ja-ginza

両方使い分けたい場合は、両コマンドとも実行してください。

インストールができたら動作を確認してみましょう。

ginza
すもももももももものうち。

# text = すもももももももものうち。
1       すもも  すもも  NOUN    名詞-普通名詞-一般      _       3       nsubj   _       SpaceAfter=No|BunsetuBILabel=B|BunsetuPositionType=SEM_HEAD|NP_B|Reading=スモモ|NE=B-OTHERS|ENE=B-Flora
2       も      も      ADP     助詞-係助詞     _       1       case    _       SpaceAfter=No|BunsetuBILabel=I|BunsetuPositionType=SYN_HEAD|Reading=モ
3       もも    もも    NOUN    名詞-普通名詞-一般      _       5       nsubj   _       SpaceAfter=No|BunsetuBILabel=B|BunsetuPositionType=SEM_HEAD|NP_B|Reading=モモ|NE=B-OTHERS|ENE=B-Animal_Part
4       も      も      ADP     助詞-係助詞     _       3       case    _       SpaceAfter=No|BunsetuBILabel=I|BunsetuPositionType=SYN_HEAD|Reading=モ
5       もも    もも    NOUN    名詞-普通名詞-一般      _       7       nmod    _       SpaceAfter=No|BunsetuBILabel=B|BunsetuPositionType=SEM_HEAD|NP_B|Reading=モモ|NE=B-OTHERS|ENE=B-Color_Other
6       の      の      ADP     助詞-格助詞     _       5       case    _       SpaceAfter=No|BunsetuBILabel=I|BunsetuPositionType=SYN_HEAD|Reading=ノ
7       うち    うち    NOUN    名詞-普通名詞-副詞可能  _       0       root    _       SpaceAfter=No|BunsetuBILabel=B|BunsetuPositionType=ROOT|NP_B|Reading=ウチ
8       。      。      PUNCT   補助記号-句点   _       7       punct   _       SpaceAfter=No|BunsetuBILabel=I|BunsetuPositionType=CONT|Reading=。




PythonでGiNZAを操作する


インストールができたろころでPythonでGiNZAを操作していきましょう。

1.文境界解析


文境界解析は文章から文の境界を検出する処理です。

import spacy

nlp = spacy.load('ja_ginza_electra')
doc = nlp('銀座でランチをご一緒しましょう今度の日曜日はどうですか。')

# 文境界解析
for sent in doc.sents:
    print(sent)

銀座でランチをご一緒しましょう
今度の日曜日はどうですか。

"。"がなくても文の境界が判断できていますね。


2.形態素解析


形態素解析は文章を単語に分割すると同時に単語の品詞などを推測する処理です。

import spacy

nlp = spacy.load('ja_ginza_electra')
doc = nlp('銀座でランチをご一緒しましょう。')
for sent in doc.sents:
    for token in sent:
        print(token.i, token.orth_, token.lemma_, token.pos_, token.tag_, token.dep_, token.head.i)
    print('EOS')

0 銀座 銀座 PROPN 名詞-固有名詞-地名-一般 obl 5
1 で で ADP 助詞-格助詞 case 0
2 ランチ ランチ NOUN 名詞-普通名詞-一般 obj 5
3 を を ADP 助詞-格助詞 case 2
4 ご ご NOUN 接頭辞 compound 5
5 一緒 一緒 VERB 名詞-普通名詞-サ変可能 ROOT 5
6 し する AUX 動詞-非自立可能 aux 5
7 ましょう ます AUX 助動詞 aux 5
8 。 。 PUNCT 補助記号-句点 punct 5
EOS






3.係り受け解析


係り受け解析は単語間の関係を解析する処理です。

以下のサンプルは係り受け木をSVG形式で保存しています。

# -*- coding: utf-8 -*-
# 文境界解析

import spacy
from spacy import displacy
from pathlib import Path

nlp = spacy.load('ja_ginza_electra')
doc = nlp("銀座でランチをご一緒しましょう。")
for sent in doc.sents:
    svg = displacy.render(sentstyle="dep")
    file_name = "kakari.svg"
    output_path = Path("./" + file_name)
    output_path.open("w"encoding="utf-8").write(svg)

キャプチャ


4.固有表現抽出


固有表現抽出は国名、人名などの固有表現を抽出する処理です。

import spacy
from spacy import displacy

nlp = spacy.load('ja_ginza_electra')
doc = nlp("山田さんと銀座でランチをご一緒しましょう。")
for ent in doc.ents:
   print(
       ent.text+','# テキスト
       ent.label_+','# ラベル
       str(ent.start_char)+','# 開始位置
       str(ent.end_char)) # 終了位置

山田,Person,0,2
さん,Title_Other,2,4
銀座,City,5,7



5.単語の分散表現


GiNZAでは学習済みの単語分散表現(word2vec)も使用できるみたいです。

分散表現は300次元ですが今回は最初の2次元だけ表示します。分散表現が学習されていない単語はALL 0になるみたいですね。

また、L2ノルムも取得することができます。

分散表現はja_ginza_electraでは学習済みモデルがないみたいなので、ja_ginzaを使用しています。

import spacy

nlp = spacy.load('ja_ginza')  
doc = nlp("銀座でランチをご一緒しましょう。")
for token in doc:
    print(token.text, token.vector[:2], token.has_vector, token.vector_norm)

銀座 [ 0.55935055 -0.02516028True 3.8992517
で [-0.09195102 -0.10327693True 1.8796002
ランチ [ 0.23565347 -0.08456942True 3.8218849
を [-0.19509408 -0.13202968True 2.0958433
ご [0.33537257 0.21526141True 2.8017106
一緒 [-0.1381576  -0.10699644True 2.5291438
し [ 0.00739705 -0.32393304True 2.2611105
ましょう [0. 0.] False 0.0
。 [ 0.12551211 -0.1708449 ] True 2.4466825

また、以下のように書くことで文のベクトル表現なども簡単に表現できます(各単語のベクトルを足して平均を求めている)。

import spacy

nlp = spacy.load('ja_ginza')  
doc = nlp("銀座でランチをご一緒しましょう。")
print(doc.vector[:2]) 

0.09312034 -0.08128325]





まとめ


GiNZAの基本的な処理について一通り触れてみましたが正直むちゃくちゃ便利です。

spaCyに関する知識が少ないのでGiNZAを有効活用できるようにそのあたりも勉強していこうと思います。





以前、OpenCVを使って顔認識をしたのですが、dlibというライブラリを使うと顔の細かいパーツのランドマークが検出できると聞いたので試しに動かしてみました。




dlibのインストール


まずは事前準備をしていきます。

dlibのインストールは以下のコマンドで行うことができます。

pip install dlib

dlibのインストールができたら、dlibの公式サイトから学習済みモデルをダウンロードしましょう。



「shape_predictor_68_face_landmarks.dat.bz2 」というファイルが顔から68個のランドマークを検出する学習済みモデルです。

また、上記の物の他に処理が軽い学習済みモデルとし「shape_predictor_5_face_landmarks.dat.bz2 」という顔から68個のランドマークを検出するモデルがあります。

今回は「shape_predictor_68_face_landmarks.dat.bz2 」を使用していきます。





写真から顔のランドマークを検出する


dlibの準備ができたところで顔のランドマークを検出してみましょう。

今回学習済みモデルは実行ファイルと同じパスにおいています。

import dlib
from imutils import face_utils
import cv2

# 顔検出ツールの呼び出し
faceDetector = dlib.get_frontal_face_detector()

# 顔のランドマーク検出ツールの呼び出し
facePredictor = dlib.shape_predictor('shape_predictor_5_face_landmarks.dat')

# 検出対象の画像の呼び込み
img = cv2.imread('検出したい画像のパス')

# 顔検出
faces = faceDetector(img1)

# 検出した全顔に対して処理
for face in faces:
    # 顔のランドマーク検出
    landmark = facePredictor(imgface)
    # 処理高速化のためランドマーク群をNumPy配列に変換(必須)
    landmark = face_utils.shape_to_np(landmark)

    # ランドマーク描画
    for (i, (xy)) in enumerate(landmark):
        cv2.circle(img, (xy), 1, (25500), -1)

# 顔検出ファイルを出力
cv2.imwrite("dLibSample-output.PNG"img)

以下の画像を今回は入れてみました。

woman-1274056_1280

分かりにくいので顔部分をアップしますが確かにランドマークが検出されていますね。

キャプチャ

顔のランドマークの番号は以下のように1~68番まで割り当てられているみたいです。

figure_68_markup

https://ibug.doc.ic.ac.uk/resources/facial-point-annotations/より


ちなみに「shape_predictor_5_face_landmarks.dat.bz2 」のモデルを使用した場合は以下のような出力になりました。

キャプチャ



まとめ


dlibを使って顔のランドマークを検出してみました。

ランドマーク検出って論文など見ていたら難しそうだというイメージがあったのですが今はこんなに便利なライブラリがあるんですね。

せっかくだからこのdlibを使ってなにかおもしろいソフトを作ってみたいですね。

OpenCVではうまくいかなかったface swapでも試してみようかな。






4267000_s

今回はPythonとOpenCVを使って写真の顔部分に自動的にモザイクをつけていきます。

これができればブログを書くときにモザイクをかける手間が減って便利そうです。


顔認識するプログラム


まずはモザイクをかける部分を決めるために顔認識を行うプログラムを作ってみます。

OpenCVには顔認識用の学習済みのカスケードファイルがあるのでそちらを使っていきます。

カスケードファイルは環境にもよりますがAnacondaを使っている場合、

~\Anaconda3\\envs\\python3.6\\Lib\\site-packages\\cv2\\data

の中に顔を認識させるものや目を認識させるものなどが入っています。

今回は、haarcascade_frontalface_alt.xmlというファイルを使います。

顔認識を行うサンプルプログラムは以下の通りです。

import cv2
import sys

# 識別したい画像を読み込む
imageFile = "画像ファイル名"
image = cv2.imread(imageFile)
imageGs = cv2.cvtColor(imagecv2.COLOR_BGR2GRAY)

# 顔認識ファイルを読み込む
cascadeFile = "~\\Anaconda3\\envs\\python3.6\\Lib\\site-packages\\cv2\\data\\haarcascade_frontalface_alt.xml"
cascade = cv2.CascadeClassifier(cascadeFile)

# 顔認識を実行
faces = cascade.detectMultiScale(
    imageGs,
    scaleFactor=1.1,
    minNeighbors=1,
    minSize=(150150)
)

if len(faces) > 0:
    # 顔部分を赤枠で囲む
    color = (00255)
    for face in faces:
        xywh = face
        cv2.rectangle(image, (xy), (x+wy+h), colorthickness=8)
    cv2.imwrite("facedetect-output1.PNG"image)
else:
    print("No Face")

OpenCVのカスケードファイルは白黒画像に対してのみ顔認識を行うことができるため、一度画像をグレースケールに変換しています。

以下の画像を入力として与えると、

woman-1274056_1280

以下のように顔周りが赤枠で囲われた画像が出力されています。

facedetect-output1

画像を見て分かる通り顔認識ができていますね。





顔にモザイクをかける


次に顔にモザイクをかけていきます。

先ほど赤枠で囲っていた領域内にモザイクをかけるように先ほどのプログラムを改造していきましょう。

if len(faces) > 0:

以降の顔を赤枠で囲っていた処理を以下のように変えてください。

    # 顔部分にモザイクをかける
    mosaic_rate = 30
    for(xywhin faces:
        # 顔を切り抜く
        face = image[y:y+hx:x+w]
        # モザイクをかける
        face = cv2.resize(face, (w//mosaic_rateh//mosaic_rate))
        face = cv2.resize(face, (wh), interpolation=cv2.INTER_AREA)
        # 元の画像に張り付ける
        image[y:y+hx:x+w] = face
    cv2.imwrite("facedetect-output2.PNG"image)

モザイクをかける処理はコードを見て分かる通り、元画像を縮小した後に元の大きさにもどしてモザイクをかけています。

mosaic_rateの値が大きいほどモザイクが荒く、小さいほど細かくなります。

mosai_rateが30の場合は以下のような画像が出力されます。

facedetect-output2




まとめ


顔認識って難しいのかなとか思っていたのですがOpenCVを使えば簡単に実装することができました。

この機会にOpenCVの顔認識を使って色々と遊んでみようと思います。






Raspberry Piを使って定点カメラを作ってみました。

コマンドで定点カメラを使っても良かったのですが今後Pythonを使って色々やっていきたいと思っていたので今回はPythonを使って定点カメラを作っています。

カメラモジュールは『Raspberry Pi カメラモジュール v2』を使用しています。





Pythonで写真を撮る


ラズパイでPythonを使って写真を撮るのにはPiCameraというライブラリを使用します。

以下のコードでは5秒間カメラのプレビュー画面が表示されます。

from picamera import PiCamera
from time import sleep

camera = PiCamera()
camera.start_preview()
sleep(5)
camera.stop_preview()

実際に写真を撮るのにはPiCamera().caputureメソッドをコールします

また、とりたい写真のサイズをPiCamera().resolutionメソッドで設定することができます。

以下のコードの場合、プログラム起動して5秒後に写真が撮影されデスクトップにimage.pngという1920×1080のファイルが保存されます。

from picamera import PiCamera
from time import sleep

camera = PiCamera()
camera.resolution = (19201080)
camera.start_preview()
sleep(5)
camera.capture("/home/pi/Desktop/image.png")
camera.stop_preview()






定点カメラを作成する


写真の撮り方が分かったところで定点カメラを作成していきましょう。

今回は、5分に1回写真を撮るようにしていきます。

from picamera import PiCamera
from time import sleep
import datetime

camera = PiCamera()
camera.resolution = (19201080)
camera.start_preview()

while(True):
    sleep(300# 300秒待機
    camera.capture("/home/pi/Desktop/Image.png")

上記のコードで5分に1回写真を撮るという要件は満たせたのですが、このままだと同じファイルに写真が上書きして保存されてしまいます。

そこでファイル名をユニークな名前にするために今回は、ファイル名に現在時刻を付けていきます。

sleepの後を以下のように改造してください。

now = datetime.datetime.now()
filename = '/home/pi/Desktop/Image/' + now.strftime('%Y%m%d_%H%M%S') + '.png'
camera.capture(filename)

これで写真を撮るたびに別のファイル名がつくようになりました。

定点カメラの完成です。



まとめ


今回はラズパイ + Pythonで簡単な定点カメラを作ってみました。

写真を撮る頻度など対象によって変えていったら面白そうですね。





PXL_20210909_122156338

七月隆文さんの『100万回生きたきみ』を読みました。

七月さんらしいロマンティックな作品で良かったです。

以下、あらすじと感想になります。


『100万回生きたきみ』のあらすじ


美桜はこれまで100万回前世の記憶を持ちながら生まれ変わってきた。

最初のころは生まれ変われることを楽しんでいたが、次第に美桜の心はすさんでいった。

100万回目の人生を体験している今は女子高生と行きながら終わらぬ命に心が枯れた結果、誰にでも体を許す女になっていた。

そんな彼女が今回の人生に絶望し自殺しようとしたとき、同級生で幼馴染の光太に救われた。

光太に救われた瞬間、光太に恋した美桜は誰にでも体を許していたことを後悔し、気を失っていった…。


そんな美桜を助けた光太も実は100万回あらゆる人生を体験してきた人間だった。

光太と美桜は2500年前、実はフランス郊外のケルト地方で出会っていた。

光太の当時の名は武勇で国中に名をはせていたタラニス。

美桜の当時の名は吟遊詩人のミアン。

二人は2500年前にも恋していた。

100万回生まれ変わってきた二人が再び出会い恋に落ちた、一途な恋の物語。

二人の運命はどうなるのだろうか。



感想(ネタバレあり)

呪いの正体


女神の呪いの正体が実はハルカだと分かったとき、思わず「マジか…」と一人で呟いし舞うほど衝撃的でした。

ハルカはこれまでタラニスが過ごしてきた人生にある時は蝶として、ある時は鳥としてずっとずっとタラニスと一緒にいました。

ハルカはタラニスのことを心から愛していました。

そんなハルカがタラニスの話を聞いて自分の正体が呪いだと気づいたときはどのような気持ちだったのだろうか…。

ハルカは最終的に大好きなタラニスとミアンの幸せを祈って消えていきましたが、ハルカにも幸せになってもらいたかった。

呪いがなくなっても一人の人間として最後までタラニスとミアンの側にいることができればよかったのに。

読んでいて呪いをかけてハルカという存在を生み出した女神がにくく感じてしまいました。





100万回目の奇跡的な再会


タラニスはミアンと再会するまで100万回の生死を体験してきましたが、その辛さは尋常ではないと思います。

ミアンは美桜としてタラニスと再会した後にタラニスの呪いを解くために同じ人生を繰り返しますが、タラニスほど精神が強くなく最終的には精神が崩壊してしまいました。

そのようすからもタラニスの精神が以下に強く、そしてどれだけミアンのことを愛していたのかが伝わってきます。

生き返るたびにミアンに出会えなかった悲しさと、それでもミアンを探し続けるタラニスの切なさを考えると100万1回目の人生でミアンに再び出会えたときの衝撃は凄まじいものだったんでしょうね。

どんなロマンティック小説よりも、再会の瞬間はロマンティックに描かれている作品でした。


100万回という数字に違和感


本作が100万回記憶をなくさずに生まれ変わってきたというロマンチック小説だということは分かっているのですがどうしても100万回という数字に違和感を感じてしまいました。

光太がタラニスとして生きていた時代は2500年前でした。

そこから100万回生死を繰り返していたとするとうるう年など気にせずに単純な計算になりますが0.9125日に一度は死んでいた計算になります。

そう考えると100万回という数字に違和感を感じてしまい、物語序盤からずっと引っかかっていました。

きりがよくてロマンティックだから100万にしたのかもしれませんが現実的なことを考えると1000とかにしてほしかったですね…。

タイトルに違和感を感じていたこともあり少しだけ感動が薄れてしまいました。



まとめ


現実的な恋愛小説も面白いですが、たまには非現実的でぶっ飛んでいる恋愛小説だからこそ感じられるロマンティックを体験するのも悪くないですね。

久しぶりに七月さんの別の作品を読み返したくなった。






Raspberry Piで定点カメラを作りたいと思いAmazonで『Raspberry Pi Camera V2』を買いました。

今回はこちらのカメラでコマンドを使って写真と動画を撮る方法を紹介していきます。


『Raspberry Pi Camera V2』のスペック


『Raspberry Pi Camera V2』のスペックは以下の通りです。

Raspberry Pi Camera Module V2
センサーソニー製IMX219PQ(1/4inch)
ピクセルサイズ1.12μm
画素数有効808万画素
静止画最大3280×2464ピクセル
動画1080p 60fps/720p 180fps
サイズ23.86 × 25 × 9 mm

4766円で購入できる小型カメラと考えればかなりスペックが高いです。

後ほどV2で撮った写真がどんなものなのかも紹介していきます。



カメラモジュールを接続する


写真や動画を撮る前にRaspberry Piにカメラモジュールを取り付けていきます。

今回はRaspberry Pi 4 Module Bを使っていきますが、他のモデルでも接続の方法などは基本的に同じです。

カメラモジュールは以下の画像の赤丸の部分に取り付けていきます。

PXL_20210907_133814272

カメラモジュールを取り付ける前に黒い部分を持ち上げてください。

カメラモジュールは以下の向きで取り付けます。

PXL_20210907_134414501

カメラモジュールが起動できたらRaspberry Piを起動して、カメラモジュールを認識させます。

Raspberry Piの設定画面を開き、

Screenshot_20210907_225708

カメラの設定を有効にして、OKをクリックします。

Screenshot_20210907_230138

その後再起動を求められるので再起動してください。



写真を撮る


カメラを取り付けられたところで写真を撮っていきましょう。

写真は以下のコマンドで撮ることができます。

raspistill -o ファイル名

ちなみにとれた画像は以下です。

test

カメラ固定せずに撮影したわりにはなかなかきれいです。

raspistillコマンドで個人的に覚えていたら便利だと思うコマンドを以下にのせておきます。

raspistill
-?ヘルプの表示
-w画像の幅の指定
-h画像の高さの指定
-qjpeg品質を設定(0 - 100)
-o出力ファイル名
-t撮影までの時間(ミリ秒)
-dデモモード
-eエンコード方式指定(jpg, bmp, gif, png)
-tlこま撮り(ミリ秒で指定した感覚で連続撮影)






動画を撮る


写真がとれたところで次に動画を撮影していきます。

動画は以下のコマンドで撮ることができます。

raspivid -o ファイル名 -t 撮影時間

ライブドアブログの仕様上撮影した動画を載せられないのですが、動画の方も思ったよりもきれいに撮れていて個人的には満足しています。

raspividコマンドで個人的に覚えていたら便利だと思うコマンドを以下にのせておきます。

raspivid
-?ヘルプの表示
-t撮影時間の指定(ミリ秒)
-fpsフレームレート
-kEnterキーでキャプチャと一時停止を切り替え
-o出力ファイル名
cdコーデック指定(H264, MJPEG)
-w動画の幅の指定
-h動画の高さの指定




まとめ


『Raspberry Pi カメラモジュール v2』の基本的な使い方についてまとめていきました。

次はPythonからカメラモジュールを使用する方法など調べていきたいです。




PXL_20210905_013736109

横関大さんの『わんダフル・デイズ』を読みました。

小説を読みながら盲導犬についての知識が吸収できる本で非常に勉強になりました。

今まで知らなかった盲導犬に関する事実を知ることができて良かったです。

以下、あらすじと感想になります。


『わんダフル・デイズ』のあらすじ


主人公は盲導犬訓練センターに勤務し始めたばかりの新人指導員である歩美。

盲導犬訓練センターで働き始めて三か月、優秀な盲導犬の指導員になることを志し午前中に座学を受け、午後にセンターの掃除を行うという生活を送っていた。

そんな歩美にとうとう指導員が着いた。

歩美の指導員となる男の名前は阿久津。

阿久津は指導員としては優秀でこれまで多くの盲導犬を指導してきたが、その反面人とのコミュニケーションが苦手なようだ。

そんな彼女らがある日、盲導犬であるジャックのパートナーから最近ジャックの調子が悪いという相談を受けた。

ジャックの不調の原因を調査していた二人はある事実に気づく…。

明るい歩美と人が苦手な阿久津の性格が全然違う凹凸コンビが送る、盲導犬×ミステリー小説。



感想(ネタバレあり)


盲導犬について知らなかった様々な事実


『わんダフル・デイズ』を読んで盲導犬の存在は小学生のころから知っているが、知らない事実がたくさんあったことに気づかされました。

まず第一話の『パピーウォーカー』を読んでいて、タイトルのパピーウォーカーという存在を知りませんでした。

引退した盲導犬を一般家庭で引き取るという制度があるのは知っていたのですが、将来的に盲導犬になる子犬を一年間ほど預かるパピーウォーカーという制度があるのは知りませんでした。

てっきり盲導犬って子犬のころから指導センターで将来盲導犬になるために育てられていると思っていました…。


また、盲導犬っていう存在は知っていたけど実際に見ることってほとんどないなとは思っていたのですが、需要に供給が追い付いていなかったんですね。

盲導犬指導員の人数にも限りがあるし、本当に優秀な犬しか盲導犬になれないという事実を考えると仕方ないのかもしれません。

ただ、視覚障害者の人で盲導犬を求める人が多いのは事実なので盲導犬をできる限り多く輩出できるように国全体で取り組みが必要なんだろうなという風に感じました。

本作ではこのほかにも盲導犬の行動原理や利口さが分かるシーンがたくさんあり盲導犬について色々と知ることができました。





歩美と阿久津の凹凸コンビ


最初は盲導犬を育てることがメインの物語だと思っていたらまさかの推理物で意外でした。

元気な歩美と推理力抜群で寡黙な阿久津というミステリーあるあるのコンビだったのですが、凹凸コンビでありながらもどこか相性のいい感じもあり読んでいてすごくほっこりしました。

歩美のとにかく明るいキャラクターは読んでいて気持ちが暗くなる物語があるなかで明るい気持ちになれました。

また、新米指導員ということもあり盲導犬にあまり詳しくない読者が共感しやすいような人物に仕上がっていたのもよかったです。

一方、阿久津は人とはコミュニケーションをとるのが下手だが、犬とのコミュニケーションをとるのは誰よりも得意だという様子から犬への愛を感じられるキャラになっていてました。

歩美にとっても指導員だけど読者からしても盲導犬に関する様々なことを教えてくれる先生的なキャラで物語を楽しみながらも盲導犬の知識が入りやすいようになっていてよかったです。



ただ、この二人のコンビに関して物語を読んでいてその演出いるのかなと思う部分が二つありました。

一つ目は歩美と阿久津がやたら美男美女と言われていることについてです。

盲導犬メインの作品なので別に指導員の二人がどんな顔していてもいいだろと読んでいて感じてしまいました。

二つ目は、歩美と阿久津がやたらと昭和のオヤジギャグを連発していたことです。

歩美の祖父が大好きだったことを強調したいのかもしれませんが、使うにしても使用頻度を減らしてほしかったですね。

いいシーンでオヤジギャグがとんでくると横やりが入ったような気がするんですよね…。

なんか映像化を狙いすぎて二人のキャラを濃く作りすぎているなという風に感じました。



まとめ


『わんダフル・デイズ』は盲導犬の現状を読者に教えてくれるいい作品でした。

少しミステリー要素が多いようにも感じましたが、盲導犬の知識ばかり詰め込むのとはちがい飽きずに読める工夫だと考えるといい作品でした。

この作品を読んで私ももっと盲導犬について詳しくなりたいなと感じたので、未読の方はぜひ読んでみてください。







↑このページのトップヘ