ウォーキング中の手のむくみの正体 | 雑記帳@まえつねウェブ — 自然言語処理 ディープラーニング
こんにちは。WELLMETHODライターの廣江です。 「指輪のサイズがきつく感じるようになった」 「手がむくみを感じるようになってから、だるさや息切れが起こりやすくなった」 「生理前になると手がむくみ、生理が始まると症状がおさまる」 など、経験したことはありませんか。 筆者の場合、前日にお酒を飲んだり塩辛いものをたくさん食べたりして、翌朝、顔や手がパンパンにむくんで後悔した…という経験が何度もあります。 むくみが生じると身体がだるく、なんとなく気持ちがすっきりしないこともありますよね。 このように日常的に誰しもが経験するむくみですが、一体何が原因なのでしょうか。 今回はむくみの原因から予防法、むくみに関係する病気についてご紹介します。 1. むくみとは むくみとは、血管やリンパ管の中にある水分が外側にしみ出し、細胞と細胞の間に過剰な水分が溜まった状態です。専門用語として「浮腫(ふしゅ)」と呼ばれます。 1-1. むくみのメカニズム むくみが引き起こされるメカニズムはいくつかあります。 ・血管外に水分を押し出す圧が増える 身体の何らかの原因により、血液が血管外へ水分を押し出す圧力静水圧が上がると、血管から水分が多くしみ出し、むくみが生じます。 ・血管から水分が漏れ出やすくなる 血管の壁を通して、水分や栄養分が各細胞に運ばれますが、その移動のしやすさのことを血管の透過性と言います。血管透過性が亢進すると、血管は内側に水分を保つことができず、外側に水分が移動します。そのためむくみが生じやすくなります。 ・血管内のタンパク質の低下 血液には体内で作られるタンパク質のアルブミンが存在します。アルブミンは血管内に水分を保持しようとする働きがあります。 何らかの原因により血液中のアルブミンが減少すると、血液中に保持していた水分が血管外にしみ出してしまうことから、むくみが生じます。 ・リンパ管の閉塞 リンパの流れが悪くなり、リンパ液が皮膚の下などに溜まった結果、むくみが生じます。 1-2. 歩くと手がむくむ 病気. むくみのタイプ むくみは生じる場所と程度がさまざまです。もし自分の身体に腫れやむくみが現れた場合、自分のむくみがどのタイプなのか知っておけば、受診するときに役に立つかもしれません。 1-2-1. 全身性、局所性 むくみは左右両側、すなわち全身にできる場合のむくみ(全身性浮腫)と一部分にできるむくみ(局所性浮腫)に分けられます。 1-2-2.
歩くと手がむくむ 病気
長時間歩いていると手がむくんできます。 対応策はありますか? ウォーキング後手がぱんぱんにむくんで、指輪がとれない事があります。 歩き終えて時間が経てば治りますが。 という女性からの質問です。 ウォーキングなどの運動負荷により、心拍が上昇して、血流が促進されます。 普段は不活性な手先の毛細血管などへ多くの血液が流れこみますが、こういった血液の循環が不全になりますと、手先の浮腫が起こる事があります。 対策は、腕を高く上げるや手を開いたり閉じたりが効果的です。 歩く時は肘を曲げてしっかり振ると云うのも効果があります。 上述のように浮腫の原因が、血流の不全の場合は、手に滞留している血液の流れを促進しなければいけません。 実はその原因の多くが、脱水という事も多いのです。 発汗などで水分不足になり、血液中の水分量が減り血流が不全となる症状です。 これらに対してはウォーキング事の前中後など定期的に小まめな水分補給が大切です。 一気にペットボトルの水を呑んでも、身体に吸収される量は少量です。 水が身体に吸収されるのには、、それなりの時間がかかるのです。 それ故大切なのは、少量の水を小まめに摂ることなのです。
歩くと手がむくむ原因
走り始めて毛細血管が開く(拡張する)前に頑張り過ぎてしまい、老廃物がうまく循環しないで脚が重くなるとか、走り終わった後に、身体の循環が良くなってスッキリするはずなのに、循環しないで疲れだけが残ることがあります。 体質により、早く毛細血管が開き、筋肉の隅々まで血液が行き渡る人は、筋肉が動くので発生した老廃物もすぐに排除されます。逆になかなか開かない人は、筋肉が動いて発生した老廃物が滞留して痛みや動きの重さを感じてしまい、毛細血管が開いても排除が間に合わない状態になってしまいます。 冬場、身体は寒さに対応するために、体表の毛細血管を閉じて(収縮して)体温低下を防ぐようにしているそうです。そのことから、走り始めはゆっくりからスタートし、血液の循環が始まったと感じてから徐々にスピードを上げるようにしたり、レース前は一度呼吸を上げるような刺激を入れ、身体の循環系を動かしておくとスタート直後から身体が順応しやすくなります。 私は10km程度のレースでウォームアップができない場合は、スタート直後はわざとオーバーペースで走り、呼吸をゼイゼイハーハーさせます。しばらくペースを落として呼吸を整え、脚がラクに回ってくるようになったらレースペースに戻します。そうすると、最後までそのペースを維持して走れるようになるのです。循環の立ち上がりの悪さのせいであれば、このような対処で改善されるかと思います。
圧痕性、非圧痕性 むくみの部分を指で数秒間押して、離したときの状態でもタイプが分かれます。 へこんだままになることを「圧痕性(あっこんせい)」と呼び、すぐに元に戻って跡が残らないことを「非圧痕性(ひあっこんせい)」と呼びます。 2. むくみを引き起こすさまざまな要因 むくみは、生活習慣の影響で生じるものや病気が原因で引き起こされるものがあります。 2-1. 歩くと手が浮腫む. 生活習慣に関係するもの 2-1-1. 塩分、水分の摂りすぎ 塩分は身体の中の水分を溜め込む作用があります。 そのため、塩分を過剰に摂取すると、身体の中の水分が上手く排泄されず、むくみが生じやすくなります。また、血液中の塩分濃度を下げようと身体が水分を欲しがるため、のどが渇き、余計にむくみが生じやすくなります。 2-1-2. アルコールの摂取 アルコールは血管を拡張する作用があり、その隙間から血液中の水分が染み出し、むくみが生じます。 また、アルコールは身体の中でアセトアルデヒドに分解され、その後、水に変化して無毒化されます。 アルコールを分解する過程でも水分が生成されて、体内の水分が増加します。 それに、お酒のおつまみは塩分が強いものが多いため、総合的にむくみの原因になります。 2-2. むくみを引き起こす病気 むくみを引き起こす病気は頻度の高いものから、頻度が低いものまでさまざまです。 2-2-1.
身近な自然言語処理(NLP) 「自然言語を処理する」ということ一体どういうことなのでしょうか? 日々の生活でも取り入れられて、知らない間に私たちの生活を便利にしてくれている自然言語処理(NLP)について以下をはじめ様々なものがあります。 日本語入力の際のかな文字変換 機械翻訳 対話システム 検索エンジン 等々 3. 自然言語処理の流れ 以上のような技術を実現するのが自然言語処理で、まずは処理するための「前処理」というものを見ていきます。 はじめに、解析するための「元のデータ」が必要になり、このときできるだけ多くの高品質なデータを収集すると、後の処理が楽になるとともに、最終的に出来上がるモデルの品質が高くなります。 データの収集を終えたら、必要な部分を取り出したり不要なデータを削除したりします。 3-1. 自然言語処理 ディープラーニング 適用例. 自然言語処理のための前処理 3-1-1. コーパス 近年、コンピュータの記憶容量や処理能力が向上し、ネットワークを介してデータを交換・収集することが容易になりました。 その為、実際の録音やテキストなどを収集し、そのデータを解析することによって、言語がどのように使われているかを調べたり、そこから知識を抽出したりといったことが広く行われています。 このように、言語の使用方法を記録・蓄積した文書集合(自然言語処理の分野ではコーパスと呼ぶ)が必要になります。 3-1-2. 辞書 日本語テキストを単語に分割し、ある日本語に対する「表層形」「原形」「品詞」「読み」などを付与するなど何らかの目的を持って集められた、コンピュータ処理が可能なように電子的に情報が構造化された語句のリストである辞書も必要です。 3-1-3. 形態素解析 テキストを言語を構成する最小単位である単語を切り出す技術(形態素解析)も必要になります。 単語は言語を構成する最小単位で、文書や文を1単位として扱うよりも正確に内容を捉えられ、文字を1単位として扱うよりも意味のある情報を得られるというメリットがあるため、自然言語処理では、多くの場合、単語を1つの単位として扱っています。 英語テキストを扱う場合、基本的に単語と単語の間はスペースで区切られているため、簡単なプログラムでスペースを検出するだけで文を単語に分割できるのですが、日本語テキストでは通常、単語と単語の間にスペースを挿入しないため、文を単語に分割する処理が容易ではありません。 つまり、形態素解析は、日本語の自然言語処理の最初のステップとして不可欠であり、与えられたテキストを単語に分割する前処理として非常に重要な役割を果たしています。 3-1-4.
自然言語処理 ディープラーニング 適用例
1. 自然言語処理のための Deep Learning 東京工業大学 奥村・高村研究室 D1 菊池悠太 @kiyukuta at 2013/09/11 Deep Learning for Natural Language Processing 13年9月28日土曜日 2. 3. 2つのモチベーション - NLPでニューラルネットを - 言語の意味的な特徴を NN→多層×→pretraining→breakthrough!! 焦って早口過ぎてたら 教えて下さい A yet another brief introduction to neural networks networks-26023639 4. Neural networkベースの話 RBMとか苦しい 5. for NLP 6. Deep Learning概要 Neural Networkふんわり Deepへの難しさ Pretrainingの光 Stacked Autoencoder, DBN 7. 8. 9. Unsupervised Representation Learning 生データ 特徴抽出 学習器- 特徴抽出器 - 人手設計 答え! 答え! Deep Learning 従来 10. 結論からいうと Deep Learningとは 良い初期値を(手に入れる方法を) 手に入れた 多層Neural Networkです 11. ⽣生画像から階層毎に階層的な特徴を ラベル無しデータから教師なしで学習 12. 生画像 高次な特徴は,より低次な特徴 の組み合わせで表現 13. 絶対に超えられないディープラーニング(深層学習)の限界 – AIに意識を・・・ 汎用人工知能に心を・・・ ロボマインド・プロジェクト. = = = 低次レベルの特徴は共有可能 将来のタスクが未知でも 起こる世界は今と同じ 14. 15. A yet another brief introduction to Neural Networks 菊池 悠太 16. Neural Network 入力層x 隠れ層z 出力層y 17. 生データ,抽出した素性 予測 18. 例えば,手書き数字認識 784次元 10次元 MNIST (28*28の画像) 3!! [0. 05, 0. 40, 0. 15, 0. 05] 10次元の確率分布 (左から,入力画像が, 0である確率, 1である確率... 9である確率) 28*28= 784次元の数値ベクトル 19. Neuron 隠れユニットjの 入力層に対する重み W1 隠れユニットj 20.
自然言語処理 ディープラーニング種類
g. (イージー)」 からもご覧いただけます。 音声認識の普及と課題 Photo by mohamed hassan on Pixhere Appleの「Siri」やAndroid OSの「Googleアシスタント」など、音声認識サービスは生活にも大きく普及しています。リリース当初と比べ、音声認識の技術は格段に上がり、現在では、検索エンジン上でも欠かせない存在となりました。 一方、こうした音声認識サービスの日本での普及率は、あまり高くありません。 2018年4月iProspectが行った調査 では、「過去6か月以内にスマホの音声認識機能を使用したか」という問いに対し、「使用した」人の平均62%、インド(82%)、中国(77%)と半数を超えるなか、日本は40%と諸外国と比べ、低い普及率でした。 音声認識は、ビジネスや日常生活で大きく活用されています。私たちは日々進化する技術革新を観察し、AI(人工知能)を積極的に受け入れていくことが必要なのではないでしょうか。
自然言語処理 ディープラーニング
別の観点から見てみましょう。 元となったYouTubeのデータには、猫の後ろ姿も写っていたはずなので、おそらく、猫の後ろ姿の特徴も抽出していると思われます。 つまり、正面から見た猫と、背面から見た猫の二つの概念を獲得したことになります。 それではこのシステムは、正面から見た猫と、背面から見た猫を、見る方向が違うだけで、同じ猫だと認識しているでしょうか? 自然言語処理(NLP)で注目を集めているHuggingFaceのTransformers - Qiita. 結論から言うと、認識していません。 なぜなら、このシステムに与えられた画像は、2次元画像だけだからです。 特徴量に一致するかどうか判断するのに、画像を回転したり、平行移動したり、拡大縮小しますが、これは、すべて、2次元が前提となっています。 つまり、システムは、3次元というものを理解していないと言えます。 3次元の物体は、見る方向が変わると形が変わるといったことを理解していないわけです。 対象が手書き文字など、元々2次元のデータ認識なら、このような問題は起こりません。 それでは、2次元の写真データから、本来の姿である3次元物体をディープラーニングで認識することは可能でしょうか? 言い換えると、 3次元という高次元の形で表現された物体が、2次元という、低次元の形で表現されていた場合、本来の3次元の姿をディープラーニングで認識できるのでしょうか? これがディープラーニングの限界なのでしょうか?
3 BERTのファインチューニング 単純にタスクごとに入力するだけ。 出力のうち $C$は識別タスク(Ex. 感情分析) に使われ、 $T_i$はトークンレベルのタスク(Ex. Q&A) に使われる。 ファインチューニングは事前学習よりも学習が軽く、 どのタスクもCloud TPUを1個使用すれば1時間以内 で終わった。(GPU1個でも2~3時間程度) ( ただし、事前学習にはTPU4つ使用でも4日もかかる。) 他のファインチューニングの例は以下の図のようになる。 1. 4 実験 ここからはBERTがSoTAを叩き出した11個のNLPタスクに対しての結果を記す。 1. 4. 1 GLUE GLUEベンチマーク( G eneral L anguage U nderstanding E valuation) [Wang, A. (2019)] とは8つの自然言語理解タスクを1つにまとめたものである。最終スコアは8つの平均をとる。 こちら で現在のSoTAモデルなどが確認できる。今回用いたデータセットの内訳は以下。 データセット タイプ 概要 MNLI 推論 前提文と仮説文が含意/矛盾/中立のいずれか判定 QQP 類似判定 2つの疑問文が意味的に同じか否かを判別 QNLI 文と質問のペアが渡され、文に答えが含まれるか否かを判定 SST-2 1文分類 文のポジ/ネガの感情分析 CoLA 文が文法的に正しいか否かを判別 STS-B 2文が意味的にどれだけ類似しているかをスコア1~5で判別 MRPC 2文が意味的に同じか否かを判別 RTE 2文が含意しているか否かを判定 結果は以下。 $\mathrm{BERT_{BASE}}$および$\mathrm{BERT_{LARGE}}$いずれもそれまでのSoTAモデルであるOpenAI GPTをはるかに凌駕しており、平均で $\mathrm{BERT_{BASE}}$は4. 5%のゲイン、$\mathrm{BERT_{LARGE}}$は7. 自然言語処理 ディープラーニング種類. 0%もゲイン が得られた。 1. 2 SQuAD v1. 1 SQuAD( S tanford Qu estion A nswering D ataset) v1. 1 [Rajpurkar (2016)] はQ&Aタスクで、質問文と答えを含む文章が渡され、答えがどこにあるかを予測するもの。 この時、SQuADの前にTriviaQAデータセットでファインチューニングしたのちにSQuADにファインチューニングした。 アンサンブルでF1スコアにて1.
2 関連研究 ここでは自然言語における事前学習について触れていく。 1. 2. 1 教師なし特徴量ベースの手法 事前学習である単語の埋め込みによってモデルの精度を大幅に上げることができ、 現在のNLPにとっては必要不可欠な存在 となっている。 単語 の埋め込み表現を獲得するには、主に次の2つがある。 文章の左から右の方向での言語モデル 左右の文脈から単語が正しいか誤っているかを識別するもの また、 文 の埋め込み表現においては次の3つがある。 次に続く文をランキング形式で予測するもの 次に来る文を生成するもの denoisingオートエンコーダー由来のもの さらに、文脈をしっかりとらえて単語の埋め込み表現を獲得するものにELMoがある。 これは「左から右」および「右から左」の両方向での埋め込みを用いることで精度を大きく上げた。 1. 2 教師なしファインチューニングの手法 特徴量ベースと同じく、初めは文中の単語の埋め込みを行うことで事前学習の重みを獲得していたが、近年は 文脈を考慮した埋め込みを行なったあとに教師ありの下流タスクにファインチューニングしていく ものが増えている。これらの例として次のようなものがある。 オートエンコーダー 1. 3 教師ありデータによる転移学習 画像認識の分野ではImageNetなどの教師ありデータを用いた事前学習が有効ではあるが、自然言語処理においても有効な例がある。教師あり事前学習として用いられているものに以下のようなものがある。 機械翻訳 自然言語推論(= 前提と仮説の文のペアが渡され、それらが正しいか矛盾しているか判別するタスク) 1. 3 BERT ここではBERTの概要を述べたのちに深堀りをしていく。 1. 3. ディープラーニングの活用事例4選【ビジネスから学ぶ】|データサイエンスナビ. 1 BERTの概要 まず、BERTの学習には以下の2段階がある。 事前学習: ラベルなしデータを用いて、複数のタスクで事前学習を行う ファインチューニング: 事前学習の重みを初期値として、ラベルありデータでファインチューニングを行なう。 例としてQ&Aタスクを図で表すと次のようになる。 異なるタスクにおいてもアーキテクチャが統一されている というのが、BERTの特徴である。 アーキテクチャ: Transformer のエンコーダーのみ。 $\mathrm{BERT_{BASE}}$ ($L=12, H=768, A=12$, パラメータ数:1.