banner

ブログ

Jul 06, 2023

生涯NNU

Scientific Reports volume 13、記事番号: 9381 (2023) この記事を引用

メトリクスの詳細

ディープラーニングをめぐる熱意が高まるにつれ、医療従事者と規制当局の両方が、臨床現場で画像セグメンテーションを安全に導入する方法を模索しています。 有望な研究を臨床オープンワールドに移行する際に克服すべきフロンティアの 1 つは、静的学習から継続的学習への移行です。 ライフサイクル全体を通じてモデルをトレーニングする継続的学習への関心は高まっていますが、医療分野ではまだ初期段階にあります。 私たちは、研究者や臨床医の手による継続的なセグメンテーションを提供する標準化されたフレームワークである Lifelong nnU-Net を紹介します。 複数の医療アプリケーションに対して最高のパフォーマンスを発揮するセグメンタとして広く知られている nnU-Net 上に構築され、モデルのトレーニングとテストを順次行うために必要なすべてのモジュールが装備されているため、幅広い適用性が保証され、継続的な新しい手法の評価の障壁が低くなります。ファッション。 3 つの医療セグメンテーションのユースケースと 5 つの継続的な学習方法にわたるベンチマーク結果は、この分野の現状に関する包括的な見通しを提供し、最初の再現可能なベンチマークを意味します。

医療ユースケース向けの深層学習手法は、利用可能なすべてのデータがシャッフルされ、配布中のサンプルのサブセットでモデルがテストされる静的な設定で引き続き評価されます。 これは、(a) すべてのトレーニング データは中央の場所で利用可能であり、(b) 取得条件は臨床展開後も時間の経過とともに変化しないという非現実的な仮定に基づいています1。 この方法で評価すると、報告されている新しい手法のパフォーマンスと実際の有用性との間にかなりのギャップが生じ2、3、4、動的な臨床環境における生涯学習エージェントの重要な展開が妨げられます5。

図 1 に示すように、継続的な学習ではデータの時間的次元が無視されず、モデルが逐次的にトレーニングされます。ここでの目標は、以前に観察されたトレーニング条件や対象グループのパフォーマンスを失うことなく、新しい環境に適応することです。 分散連合学習法は複数の臨床環境で検討されており、施設間でデータを共有する必要もありません6,7。 しかし、それらはデータの利用可能性に関する一時的な制限に対処するものでも、人口動態の変化に継続的に適応するエージェントのためのフレームワークを提供するものでもありません。 これらの懸念に対処する医療分野での継続的な学習に対する熱意が高まっており 8、9、10、11 、規制手順についても活発に議論されています 5、12、13。 現在、展開中にモデルを適応させるたびに再承認が必要ですが、継続的に適応するアルゴリズムの使用を可能にするライフサイクル規制プロトコルに対する FDA と欧州委員会の両方からの取り組みがあります 14。 こうした追求により、テクノロジーがまだ初期段階にあるにもかかわらず規制ガイドラインが整備されるという稀な状況に陥る可能性があります。

静的設定 (左) では、すべてのトレーニング データがまとめられます。 継続的な設定 (右) では、取得時間を考慮し、モデルを順次トレーニングします。

より単純なコンピュータ ビジョン タスクの継続学習に関する技術文献は、標準化された評価設定の欠如に関する論争に悩まされています 15、16、17。 最近、Avalanche18 プロジェクトが、統一されたコード ベースを提供することで継続的に分類するこの問題の解決策として登場しました。 この分野は、画像内の各ピクセルにラベルを割り当てる継続的セグメンテーションに関してはそれほど成熟していません。これはおそらく臨床領域における主要な AI タスクです。 近年さらに多くの研究が行われています8、10、19、20、21、22、23が、(1) 高性能のセグメンテーション パイプラインの上に構築されているわけでも、(2) 一般的な手法が複数の画像セグメンテーションにどのように移行するかを調査しているわけでもありません。オープンソースのベンチマーク。

この研究では、継続的な設定でセグメンテーション モデルをトレーニングおよび評価するための標準化されたフレームワークである Lifelong nnU-Net を紹介します。 私たちは、nnU-Net パイプライン上にコードを構築します。nnU-Net パイプラインは、11 の国際的な生物医学セグメンテーションの課題 24 にわたって、33 の医療セグメンテーション タスクに対して最先端の技術であり、さらに 20 のタスクに対しても競争力があります。 これにより、拡張フレームワークの高い使いやすさとパフォーマンスが保証されます。 私たちの貢献は次のとおりです。

nnU-Net 上に構築されたオープンソースの継続学習フレームワークの導入

異なる設定下での連続トレーニングのパフォーマンスと実行時間の比較。

5 つの継続的な学習メソッドのオープンソース実装により、最先端技術の迅速な評価が可能になり、新しいアプローチの開発が加速されます。

3 つの異なるセグメンテーション問題について、公開データを使用して実験した結果、次のことがわかりました。

調査された継続的学習方法のいずれも、セグメンテーションの確実な逆方向転送を一貫して達成するものはなく、新しいソリューションの必要性を示しています。

以前の研究によると、リハーサルベースの方法は、モデルの可塑性を維持しながら、忘却の量が最小限に抑えられます。

継続学習の文献では一般的である、タスク固有のヘッドを維持する実践は、セグメンテーションには最小限しか関係しません。

Lifelong nnU-Net の目標は、コミュニティが継続的な学習を医療画像セグメンテーションに変換しながら、高い技術基準と再現可能な結果を​​保証することです。 オープンソース データセット用のコードとトレーニング済みモデルをリリースすることで、セグメンテーション モデルに関する将来の継続的な学習方法を評価するためのベンチマークを確立します。

このセクションは、1 つのデータセットを使用してモデルを静的にトレーニングした結果を調べることから始めます。 その後、逐次学習と、リハーサル、弾性重み統合 25 (EWC)、忘れない学習 26 (LwF)、リーマン ウォーク 27 (RW)、および背景のモデリング 28 (MiB) という 5 つの一般的な継続学習戦略を検討します。 ここでは、各解剖学的構造 (海馬、前立腺、心臓) のデータセットを n 個のタスク \(\mathscr {T}_1\), ..., \(\mathscr {T}_n\) とみなして、それぞれのモデルをトレーニングします。すべてのそれぞれのタスクでケースを順番に使用します。

セグメンテーションのパフォーマンスを Dice 係数で定量化し、古いタスクの忘れの度合いを測定する逆方向転送 (BWT) と、新しい知識を学習する能力を評価する順方向転送 (FWT) を報告します。

最後に、シングルヘッド アーキテクチャとマルチヘッド アーキテクチャの使用の違いを分析し、タスクの順序付けの重要性を簡単に説明し、トレーニング時間の概要を示します。

継続的な学習結果を状況に当てはめるために、まず 1 つのデータセットのみでトレーニングされた独立したモデルのパフォーマンスを観察します。 これらを図 2 に示します。左下隅から右上隅までの対角線上に、分布内データの静的評価が表示されます。 この設定では、すべてのモデルが少なくとも 86% のダイスを達成します。

1 つのデータセットのみで独立してトレーニングされたモデルのパフォーマンス。 (左下から右上) 対角線では、トレーニングに使用されたデータセットのテスト ケースでモデルを評価する Dice 係数が見つかります。 残りのセルでは、これらのモデルがどのように他のデータセットに転送されるかを示します。 心臓データについては、右心室セグメンテーションのパフォーマンスを報告します。

タスク間マトリックスを使用すると、分布外のデータに対して各モデルがどの程度効果的に実行されるかを確認することもできます。 これらのパフォーマンスの違いは、取得と患者集団に関するデータセット間の固有の相違と、より大規模で多様なトレーニング データによって引き起こされるモデルの堅牢性の両方によるものです。 \(\mathscr {T}_1\) でトレーニングされたモデルが後で \(\mathscr {T}_2\) でトレーニングされた場合、\(\mathscr {T}_1\) の忘却量は値が低いほど、データ分布が類似し、\(\mathscr {T}_2\) でのモデルの初期パフォーマンスが高くなります。

前立腺セグメンテーション (最初のヒートマップ) では、I2CVB は明らかな外れ値です。 海馬の場合、HarP でトレーニングされたモデルは DecathHip ではパフォーマンスが低下し、その逆も同様です。 HarP モデルは Dryad では 86% の Dice を達成しますが、Dryad モデルは HarP では 50% にしか達しません。 これはおそらく、HarP のサイズがはるかに大きいためです (表 4 を参照)。 右心室セグメンテーションの場合、Siemens でトレーニングされたモデルは Philips で良好に機能しますが、Philips モデルは Siemens データの 50% Dice にのみ達し、その結果、トレーニング ケース間のばらつきが少なくなる可能性があります。

次に、モデルが連続的にトレーニングされたときのパフォーマンスを検査します。前立腺と海馬の解剖学的構造については表 1、心臓については表 2 にまとめられています。 最初の行では、それぞれの解剖学的構造からのすべてのシャッフルされたトレーニング データでトレーニングされた静的モデルの上限を報告します。 次の行は、自明な方法でモデルを連続的にトレーニングした結果を示し、それ以降の行は、忘却の量を抑えることを試みるさまざまな継続的な学習戦略に関するものです。 レポートされるのは、\(UCL \rightarrow I2CVB \rightarrow ISBI \rightarrow DecathProst\) (前立腺)、\(HarP \rightarrow Dryad \rightarrow DecathHip\) (海馬)、および \(Siemens \) の順序でトレーニングした後の最終モデルの Dice です。 rightarrow フィリップス\) (心臓)。

すべての解剖学的構造において、Rehearsal29 (Reh.) メソッドは物忘れを防ぐのに効果的です。 これは以前の研究と一致しています29。 ただし、この戦略は、将来のトレーニングでインターリーブするために前のタスクからサンプルを保存する必要があるため、常に使用できるわけではありません。 これは、リハーサルが追加の上限となる多くのシナリオでは不可能です。 このような場合、EWC と MiB は初期のタスクでの忘れの量を確実に削減します。 対照的に、LwF と RW はセマンティック セグメンテーションのタスクにはうまく変換されないようです。 図 3 (y 軸) では、忘却を逆後方伝達として直接示しています。ここでは、EWC (▼)、MiB ()、および Rehearsal (✖) が高い後方伝達スコアを維持していることがわかります。

3 つのユースケースの連続セグメンテーションに対する相対的な後方 (y 軸) および前方 (x 軸) の転送。それぞれのデータすべてにわたって平均化されます。 各マーカーはトレーニング段階と解剖学的構造に対応します。 逆方向転送は逆忘却であり、順方向転送はモデルが将来のタスクにどれだけうまく適応するかを測定します。 どちらの指標でも、高いほど優れており、ゼロに近い結果が現実的に期待できます。

ただし、これには多くの場合、モデルの可塑性が失われ、後のタスクのパフォーマンスが低下するという代償が伴うことに注意してください。 たとえば、シーケンシャル モデルでは DecathProst (最後のタスク) では 91.91% の Dice が示されていますが、EWC では 87.79% に減少します。 海馬のセグメンテーションの場合、この動作はより顕著になります。 DecathHip の Dice は、EWC の場合は 90.92% から 31.93%、MiB の場合は 20.75% に低下します。 心臓データの場合、LwF および RW の初期シーメンス タスクのパフォーマンス低下と、EWC および MiB のフィリップス データの可塑性損失は、より困難な心筋 (MI) クラスと右心室 (RV) クラスで特に顕著です。 可塑性の損失は、図 3 に順方向伝達 (x 軸) として示されています。EWC は負の値を示しますが、リハーサルはゼロに近いままです。

図 4 のトレーニングの軌跡を観察することで、最もパフォーマンスの高いリハーサル手法と EWC と並行して、些細な連続トレーニングの動作をさらに分析します。

海馬と前立腺のセグメンテーションの学習軌跡。2 つの異なる順序、つまり \(UCL \rightarrow I2CVB \rightarrow ISBI \rightarrow DecathProst\) と \(ISBI \rightarrow UCL \rightarrow DecathProst \rightarrow I2CVB\) の最後の順序です。 垂直線はタスクの境界を示します。 各タスクは異なる色で表示されます。 簡単なシーケンシャル トレーニング (実線) を EWC (破線) およびリハーサル (点線) と比較します。

逐次トレーニングの実線は、主にタスク境界後の急速な低下を示しています。 リハーサルとEWCの両方により、忘れる量が大幅に減少します。 ただし、EWC の負の前方伝達として現れる可塑性の低下は明らかであり、新しいタスクの破線は、多くの場合、連続した相当物よりも下で開始されます。最も顕著なのは、図 4 の第 3 海馬段階の DecathHip です。

\(UCL \rightarrow I2CVB \rightarrow ISBI \rightarrow DecathProst\) の順序の前立腺実験では、I2CVB によるトレーニング (第 2 段階) が終了した後、UCL (シアン) が予期せぬ回復を示していることがわかります。 ただし、これは、UCL 上で ISBI および DecathProst を使用してトレーニングされたモデルの固有の優れたパフォーマンスによるものと考えられます (図 2 を参照)。

\(ISBI \rightarrow UCL \rightarrow DecathProst \rightarrow I2CVB\) で実験を繰り返すと、海馬で観察されたものとより似た動作が見られます。そこでは、古いタスクのパフォーマンスが継続的に低下し、パフォーマンスが失われます。 EWC のモデルの可塑性は、最後のタスク I2CVB の開始パフォーマンスの低さとして現れています。

これは、継続的な学習方法を比較する際に、タスクの順序付けがいかに重要であるかを示しています。 理想的には、すべての順序を考慮する必要がありますが、これは 3 次元セグメンテーション アーキテクチャをトレーニングするときに計算上禁止される可能性があります。 あるいは、静的な分散内およびタスク間のパフォーマンス結果を考慮する必要があります。 ただし、これは遡及研究でのみ実行できます。 将来的には、タスクの順序が与えられ、ユーザーは、後で利用可能になるデータとタスクがどのように関連しているかについて何も知らずに、利用可能になったタスクを使用してトレーニングする必要があります。

ほとんどの継続的学習方法では、いくつかのハイパーパラメータを通じてモデルの剛性を調整できます。 たとえば、EWC \(\lambda\) は、以前のモデル状態からの乖離にどの程度のペナルティを課すかを決定します。 \(\lambda\) が大きいほど知識の保存が優先され、 \(\lambda\) が小さいほどモデルは新しい分布に適応しやすくなります。

残念ながら、検証セットを使用してハイパーパラメータを調整できる静的トレーニング設定とは異なり、実際の継続的設定では、以前のタスクからのサンプルにアクセスできず、モデルが後でどのデータを受け取るかについての情報もありません。 したがって、適切なハイパーパラメータを決定することは非常に困難であり、文献のガイドラインに従うか、現在のタスクの損失軌跡を事前に観察するか、他の実験の結果を通じて設定をガイドする必要があります。 それがこの作品で私たちが従う戦略です。

表 2 には、各継続学習方法の 3 つのハイパーパラメータ設定にわたる遡及結果が含まれています。 これらには、表 1 で使用されているデフォルト設定 (EWC の場合は \(\lambda = 0.4\)、LwF の場合は \(T = 2\)、MiB の場合は \(\alpha =0.9\)、および \(\lambda = 0.4\) が含まれます。 RW の場合)、およびそれらの結果を分析した後、当社が合理的であると判断したその他のもの。 特に、EWC の \(\lambda\) が低く、MiB の \(\alpha\) が低いほど有益であることがわかり、知識を維持しながらモデルの可塑性を高めることができます。 他の設定では、LwF または RW の結果は改善されませんでした。

これが前立腺と海馬の使用例でのパフォーマンスの向上につながるわけではないことを強調します。 実際、表 1 に見られるように、EWC と MiB はモデルの可塑性を低下させますが、一部の忘却にも気づくため (たとえば、ISBI、HarP、および Dryad の場合)、モデルはそれほど厳密ではありません。 実際の展開や前向き研究のためのハイパーパラメータの設定は非常に困難であり、他のユースケースの結果を観察することによって剛性と可塑性のトレードオフを確実に選択できないため、実際の動的設定で継続的学習方法論を適用する場合には 1 つの問題があります。

以前の実験では、モデル全体が順次トレーニングされると仮定しました。 継続的な学習は、最後のネットワーク層がタスクに依存し、それぞれのタスクでのトレーニング後に更新されないマルチヘッド設定で評価されることがあります15。 推論中、対応する頭部が共有ボディとともに使用されます。 さらに、身体の更新に関しては 2 つの選択肢があります。身体は可塑性を維持して時間の経過とともに更新されるか、最初のトレーニング段階の後に凍結されるかです。

推論中にサンプルのタスクの優先順位が不明な場合は、強度値の分布やそれを再構成するオートエンコーダーの能力などの画像特性から推論できます。 この作業では、この情報が利用可能であることを前提としています。

図 5 では、トレーニングと共有身体の凍結、1 つの維持とタスクから独立した頭の 4 つの可能性を検討します。 1 つのヘッドを維持する場合と個別のヘッドを維持する場合 (および推論中に適切なヘッドを選択する場合) の違いは最小限であることがわかります。 対照的に、ボディをフリーズすると、初期のシーメンス タスクを忘れるのを防ぐことができますが、その代償として、2 番目のフィリップス タスクのパフォーマンスがわずかに低下します (可塑性の損失により予想されるとおり)。 図 2 を見ると、Siemens データのみでトレーニングされたモデルは、Philips 上で非常に良好に機能します。 これは、可塑性の喪失が、別のデータ コーパスのパフォーマンスに大きな影響を与える可能性があることを示しています。

モデルのトレーニングと構築のための 4 つの設定: モデルを適応させてタスク依存の頭部を維持する (プラスチック MH、ピンク) または 1 つの頭部を共有する (プラスチック LH、オレンジ)、最初のタスク後にボディをフリーズし、タスク依存の頭部を維持する(アナと雪の女王MH、水色)または1つの頭を共有(アナと雪の女王LH、緑)。 Dice は 3 つの心臓構造について報告されています。

以下では、継続的な学習がセグメンテーション マスクの完全性にどのような影響を与えるかを視覚的に説明します。 画像分類とは異なり、セグメンテーションはモデルがいつどのように失敗するかを直接示す可能性があります。 図 6 は、UCL データセットと HarP データセットの例を示しています。これらは、それぞれ前立腺と海馬のユースケースの最初のタスクです。

1 列目と 2 列目は、対応するタスクのトレーニングを終了した直後にモデルによって生成されたグラウンド トゥルースとセグメンテーションを示しています。 さらに列には、さまざまな継続学習戦略による最終モデルの予測が示されています。 モデルを逐次的に自明にトレーニングする場合と同様に (\(\mathscr {T}_n\) のシーケンス)、メソッド LwF および RW は、追加の連結成分を含む散乱セグメンテーション マスクを生成します。 EWC は海馬のセグメント化の完全性を維持しますが、前立腺のセグメント化の完全性は維持しません。 これはおそらく、海馬モデルの剛性が増加し、その結果、負の前方伝達が生じるためであると考えられます (図 3 を参照)。 リハーサルでは通常、正しい形状が維持されますが、前立腺マスクは必要以上に大きく、追加の接続コンポーネントが 1 つ含まれています。 最後に、MiB は両方のケースで適切なマスクを生成することに成功しましたが、前立腺のセグメントがわずかに低くなります。

ITK-SNAP31 で生成されたアキシャル ビューと 3D レンダリングの関心領域のクロップを表示する、UCL と HarP のモデルを連続的にトレーニングするときのセグメンテーション パフォーマンスの質的低下。

実験は、8 個の NVIDIA Tesla T4 (16 GB) GPU、2 個の Intel Xeon Silver 4210 CPU、および 256 GB DDR4 RAM を備えたシステムで実行されました。 実験は並行して実行され、それぞれ 1 つの GPU を使用しました。ただし、前立腺のユースケースの LwF 実験では 2 つの GPU がタンデムで使用されました。

表 3 は、各メソッドと解剖学的構造の 1 エポックに必要なトレーニング時間の概要を示しています。 海馬の実験は、解像度が低いため最も高速でした。 MiB は逐次トレーニングよりも大幅に長い時間を必要とし、ネットワークの一部がフリーズしている場合でも、タスク シーケンスの長さが長くなるにつれて LwF エポックの継続時間は大幅に長くなります (4 タスクの前立腺実験で顕著です)。

特に医療画像のセグメンテーションの場合、ハードウェア要件が大きく、法外な可能性があるため、継続的な学習戦略を選択する際には計算オーバーヘッドを考慮する必要があります。 特に、タスク シーケンスの長さに応じて各エポックの期間を直線的に増加させる方法は避けることが賢明です。

動的な臨床環境では、変化する画像プロトコルや疾患パターンに適応できるモデルが必要です。 医療画像セグメンテーションのための継続的な学習の重要性が認識されつつある一方で、私たちのコミュニティには、研究者が自然な画像分類に採用するレポート標準やベンチマーク データセットが不足しています。

Lifelong nnU-Net を使用して、継続的なセグメンテーションの標準化された評価のフレームワークを確立します。 当社は、人気の高い nnU-Net パイプラインを、5 つの一般的な継続学習戦略や継続パラダイムに固有のメトリクスなど、セグメンテーション アーキテクチャを逐次的にトレーニングおよび評価するために必要なすべてのコンポーネントで拡張します。

3 つの異なるセグメンテーションのユースケースにわたる評価により、貴重な洞察を得ることができます。 以前の研究 29 と一致して、リハーサルは最良の結果をもたらし、以前のタスクからのケースのサブセットをトレーニング データにインターリーブすることで忘却を大幅に減少させます。 私たちの実験では、過去のトレーニング データの一定の割合をインターリーブしますが、一部のタスクが過小評価されている場合にメモリ バッファーを最適化したり、ケースを複製したりするための戦略が多数存在します。 もちろん、リハーサルベースの戦略は、このデータを保存できる場合にのみ実現可能です。 患者のプライバシーへの配慮によりこれが当てはまらないシナリオでは、EWC および MiB 手法が適切な代替手段であることが証明されており、新しいタスクに適応するモデルの能力が低下するという代償を払って、物忘れを効果的に削減します。 最後に、LwF メソッドと RW メソッドは、私たちの設定にはあまり適していないようです。 遡及実験でより多くの知識を保存できるようにさらに調整することもできますが、以前のタスクでのモデルの劣化は測定できないため、実際の展開ではこれは実現できません。

私たちの研究で得られた残念な点は、どの方法も正の逆方向転移 (BWT) をもたらしなかったことです。 これは図 3 に明確に示されており、最良の方法でも忘れを防ぐことができ、BWT がゼロに達するだけであることがわかります。 これは、後のタスクから知識を取得しても、前のタスクのパフォーマンスが向上しないことを意味します。 したがって、完全に独立したモデルを維持し、推論中に対応するモデルを使用することは、これまでに検討されたすべての継続的学習方法よりも優れたパフォーマンスを発揮します。 また、前立腺実験では正の前方転移のみが観察されました。 これは、以前のタスクでトレーニングを行ってから微調整を行っても、対応するタスクでモデルを最初からトレーニングする場合と比較して、パフォーマンスが最小限しか改善されないことを意味します。

さらに、継続学習の文献で一般的な、タスク固有のヘッドを維持する実践が、医療画像の連続セグメンテーションのパフォーマンスに大きな影響を与えないこともわかりました。 これは、体が最初の段階の後に凍結した場合と、体がプラスチックのままの場合の両方に当てはまります。 さらなる研究では、ネットワークの大部分をタスク固有のままにすることを検討する必要があります。

私たちの調査では、いくつかの制限があることが判明しました。 まず、ほとんどのアプリケーションで推奨されているフル解像度のパッチベースの 3D nnU-Net バリアントに調査を限定しました。 スライスごとのネットワークや 3D ダウンサンプリングされたネットワークでの実験は繰り返しませんでした。 私たちの評価では、医療画像処理に最も関連する増分領域学習シナリオにも焦点を当てています8。

第二に、現時点では、Lifelong nnU-Net フレームワークに含まれる継続的な学習方法のカタログは限られています。 私たちは、さまざまな戦略にわたって個々のアプローチを十分に表現できるように努め、非常に人気があるが古い手法 (シンプル リハーサル、EWC、LwF) と新しいアプローチ (MiB と RW) を組み合わせて実装しました。 将来的には、このカタログが私たちの努力とコミュニティの他のメンバーの貢献の両方によって成長することを願っています。

継続的な画像セグメンテーションのための効果的なフレームワークには、次の要件があります。

高品質の静的セグメンテーション結果を達成するためのすべてのコンポーネントがあり、2 次元と 3 次元の両方のアーキテクチャ (nnU-Net など) をサポートしています。

広く受け入れられているデータセット形式とデータセット間のラベル特性の調整に依存することで、増分ドメイン シナリオの評価を簡素化します。

適切なメトリックを使用してトレーニング中にさまざまなタスクのモデルのパフォーマンスを追跡する統合された評価ロジックが含まれています。

共有パラメータとタスク独立パラメータの両方を維持するマルチヘッド モデルのトレーニングなど、既存の最先端の継続学習ソリューションをサポートします。

このセクションは、私たちが調査する 3 つのセグメンテーションの使用例とその表記法を紹介することから始まります。 次に、Lifelong nnU-Net フレームワークが医学の継続的学習研究に強固な基盤を提供することを保証するために、上記の要件のそれぞれにどのようにアプローチするかを概説します。 最後に、使用した継続学習方法について説明し、実験設定の詳細を簡単に説明します。

3 つの非常に異なる使用例について、継続的な画像セグメンテーションの問題を調査します。 再現性を確保するために、公開されているデータセットのみを使用し、以下に概説するプロセスに従ってラベルの特性を調整します。 解剖学的構造ごとに、タスク \(\mathscr {T}_1 ... \mathscr {T}_n\) として機能するデータセットの配列を選択します。 表 4 は、すべてのデータセットのデータとラベルの特性の概要を示しています。

私たちがアプローチする最初のユースケースは、T2 強調 MRI における前立腺のセグメンテーションであり、これには 4 つのデータ ソースのコーパスを使用します。 サイト A (ISBI34)、C (I2CVB35)、D (UCL36) については、前立腺 MRI セグメンテーション チャレンジのマルチサイト データセット 32,33 で提供されているデータを利用します。 最後に、医療セグメンテーション Decathlon37 (DecathProst) の一部として提供されるデータを使用します。 一部のセグメンテーション マスクには、末梢ゾーンと中央腺を表す 2 つのラベルが含まれており、コーパス全体での一貫性を確保するために、これらを 1 つの前立腺ラベルに結合します。 前立腺のセグメンテーションはかなり簡単な問題ですが、生検に先立って腫瘍組織の可能性のある位置を決定するために重要であり、前立腺の形状は患者間でほとんど変わりません。 図 7 は、4 つのデータセットの例を示しています。

前立腺セグメンテーション データセットからの 4 人の被験者のスライス例。

2 つ目は、T1 強調 MRI における海馬のセグメンテーションであり、これには 3 つのデータ ソースが含まれています。 調和海馬プロトコル データ 38 (以後 HarP と呼びます) には、高齢の健康な被験者とアルツハイマー病患者が含まれています。 Dryad39 データセットには、さらに 50 人の健康な患者が含まれています。 3 番目のデータ ソースとして、医療セグメンテーション Decathlon37 (DecathHip) の一部として提供される、健康な成人と統合失調症患者の両方からの画像を使用します。 海馬のセグメンテーションでは、90% 以上の Dice が期待できます 24。 3 つのデータセットすべてからの画像スライスの例を図 8 に示します。

海馬セグメンテーション データセットからの 3 人の被験者のスライス例。

最後に、心臓 MRI で左心室と右心室 (LV と RV) と心筋層 (MI) のセグメンテーションを調べます。 我々は、マルチセンター、マルチベンダー、マルチ疾患心臓画像セグメンテーション チャレンジ (M&Ms)40 用にリリースされたデータを利用しています。これには、シーメンスで取得された 75 件のラベル付き症例とフィリップス スキャナーで取得された 75 件の症例が含まれます。 これには、複数クラスの問題であるというさらなる困難が伴い、これにより、関心領域の形状とサイズに応じて、さまざまな解剖学的構造のパフォーマンスがどのように変化するかを観察することができます。 スライスの例を図 9 に示します。

2 つの心臓データセットからの被験者のスライス例。 左心室(赤)、心筋(緑)、右心室(青)がセグメント化されています。

これら 3 つの問題設定を選択して、モダリティ間のばらつき、セグメンテーション マスクの形状とサイズ、当面のタスクの難易度を確保します。 もちろん、私たちのフレームワークにより、さらなるユースケースの迅速な評価が可能になります。 すべてのデータセットについて、テスト目的でデータの 20% を分割し、すべての実験にわたってこの分割を維持します。 コードとともに分割を公開します。

n 個のタスク \(\mathscr {T}_1\), ..., \(\mathscr {T}_n\) を考えます。 モデル \(\mathscr {F}_2\) は、タスク \(\mathscr {T}_2\) の学習データのみで学習されます。 モデル \(\mathscr {F}_{[1, 2, 3]}\) はタスク \(\mathscr {T}_1\)、\(\mathscr {T}_2\)、\(\ mathscr {T}_3\)、この順序で。 \(\mathscr {F}_{\left\{ 1, 2, 3 \right\} }\) は代わりに、3 つのタスクすべてからのシャッフルされたトレーニング データでトレーニングされた静的モデルです。 最後に、 \(\mathscr {F}_i(\mathscr {T}_j)\) を使用して、タスク \(\mathscr のテスト データに適用されたモデル \(\mathscr {F}_i\) のパフォーマンスを参照します{T}_j\)。

同様の問題を調査するセグメンテーション データセットは、ラベル構造の点で均一ではないことがよくあります。 継続的な学習は、データセット全体でアノテーションが一貫している場合にのみ実現可能です。 したがって、モデルを継続的にトレーニングする前に、ラベルの特性を調整することが重要な前処理ステップに含まれます。

たとえば、前立腺のセグメント化の問題を考えてみましょう。 データセット \(\mathscr {T}_1\) には、前立腺ボクセル (セグメンテーション マスクで値 1 を取る) とゼロでマークされた背景を区別する、前立腺クラスの注釈が含まれる場合があります。 データセット \(\mathscr {T}_2\) には、代わりに、前立腺を構成する 2 つの領域である中央腺 (ラベル 1) と周辺領域 (ラベル 2) の注釈が含まれる場合があります。 さらに別のデータセット \(\mathscr {T}_3\) には、前立腺 (ラベル 1) と膀胱 (ラベル 2) の両方の注釈が含まれている場合があります。 ラベル 1 と 2 のアノテーションをデータセット B のクラス 1 (前立腺) に変換し、ラベル 2 (膀胱) をデータセット C のクラス 0 (背景) に変換することで、データセット A の構造を占めるようにこれらのラベルを配置できます。このプロセスは次のとおりです。もちろん、別のシナリオとして、ラベルの数が時間の経過とともに増加する増分ラベル学習も考えられます。 この場合、\(\mathscr {T}_3\) で別の膀胱ラベルを維持することになります。

前立腺 (中央腺と周辺領域の結合) と海馬 (頭と体の結合) のラベル特性の調整。

これらの特性を調整することは、さまざまなユースケースを有意義に評価するために十分なオープンソース データを取得するために重要です。 Lifelong nnU-Net には、これらの手順を簡単に実行する前処理スクリプトが含まれています。

データ可用性の制約の下で、モデルを順次トレーニングするための自然な代替方法は、タスクごとに 1 つのモデルを維持し、推論中に各主題に使用するモデルを選択することです。 このオプションでは、忘却は発生しませんが、逆方向および順方向の転送の可能性が排除され、タスクの数に応じてメモリ要件が直線的に増加します。 いくつかの継続的学習方法は中間的なアプローチを採用しています。つまり、初期の層は共有されますが、最後の層はタスク固有に保たれます 25,26。 直感的には、マルチヘッド モデルでは、最後のネットワーク層がタスク固有の情報を保存しながら、初期のパラメーターが新しいデータから学習できるようになります。

図 11 に示すように、この動作を Lifelong nnU-Net フレームワークに実装します。最初のタスクでは、トレーニングは通常どおりに進行します。 2 番目のタスクでトレーニングが行われる前に、モデルの頭部が複製されます。 その後、共有された体と新しい頭でトレーニングが続きます。 このプロセスはすべてのタスクに対して繰り返されます。 推論中に、画像ごとに頭部が選択され、共有ボディと結合されます。 さらに、最初のトレーニング段階の後に共有ボディをフリーズし、頭のみを更新するオプションが含まれています。 どのパラメータが頭部を構成するかはユーザーが決定します。 マルチヘッド アーキテクチャの実験では、seg_outputs を分割ポイントとして使用します。

トレーニング中、共有ボディは順次変更されますが、モデルの頭部はタスク固有のままです。 推論中に、対応する頭部が共有ボディの最終状態とマージされて、予測が抽出されます。

nnU-Net には、データセットの準備、トレーニング、推論の実行のためのメソッドが含まれています。 検証セットのパフォーマンスは、予測 A とグラウンド トゥルース描写 B のクラスに対してセグメント化されたボクセルの交差を測定し、そのクラス内のボクセルの総数で正規化された Dice 係数を使用して監視されます。

継続的な学習の要件を考慮して、このロジックを次のように拡張します。

トレーニング終了後に実行される、対象となるすべてのデータセットをテストするための評価モジュール。

いくつかの異なる検証セットでのトレーニング中にパフォーマンスを追跡する拡張動作。 これにより、ユーザーは、タスク \(\mathscr {T}_i\) によるトレーニングがタスク \(\mathscr {T}_j\) によるトレーニングにどのような影響を与えるかを理解できるようになり、視覚化されたものとして表現力豊かなトレーニング軌跡をエクスポートできるようになります。図4の。

これらの変更により、継続的な学習設定の迅速な検証が可能になり、すべてのモデルの状態を保存する必要がなく、分布外データの検証が簡素化されます。

Dice 係数の形式でセグメンテーションのパフォーマンスを観察することに加えて、結果をより直感的に理解する方法を提供する継続的な学習研究からのメトリクスを調査します。

分布の変化が一般的であるオープンワールドにおける継続学習の主な目標は、最終的なモデルが目に見えるすべてのソースからのサンプルに対応できるように、最後のバッチの画像特性への過剰適合を回避することです。 恐ろしい壊滅的な忘却を回避することに加えて、モデルは理想的には後方転送と前方転送の両方を達成し41、すべての被験者グループにわたって信頼性の高いパフォーマンスを保証する必要があります。

タスク \(\mathscr {T}_i\) でのモデルのパフォーマンスの違いを、そのタスクでトレーニングした直後と、さらなるタスクでトレーニングした後で測定します。 結果が否定的である場合、これは忘却が起こったことを意味します。 代わりに、結果が正の場合は、逆方向転送の望ましい特性が達成されたことになります。たとえば、タスク \(\mathscr {T}_{i+1}\) を使用したトレーニングにより、タスク \(\mathscr {T} のパフォーマンスが向上します) _{私}\)。

微調整プロセスが特定のタスクに対してどの程度有利であるかを計算します。つまり、タスク \(\mathscr {T}_i\) でトレーニングした直後の連続モデルの状態とモデル \(\mathscr {F}_i\) の差を計算します。タスク \(\mathscr {T}_i\) のみでトレーニングされました。 肯定的な結果は、他のタスクからのデータを使用して事前にトレーニングすると、微調整後のモデルのパフォーマンスが向上することを意味し、否定的な結果は、モデルが \(\mathscr {T}_i\) に適応できないことを意味します。 この 2 番目のケースは、モデルの可塑性を低下させる特定の継続的な学習方法を使用する場合に発生する可能性があります。 他の定義では将来のすべてのタスクに対してこのメ​​トリックが考慮されますが、ここでは対応するタスクに焦点を当てて次のように定義します。

両方のメトリックについて、減算の右側に関する相対的なパフォーマンスの変化を報告します。 これにより、異なるセグメンテーションの難易度で解剖学的構造全体のパフォーマンスを比較することができます。

タスクごとに 1 つの個別のモデルをトレーニングし、各モデルが他のタスクでどのように実行されるかを視覚化します (図 2 を参照)。 これはタスク間の互換性を推定するのに役立ち、継続的な学習を促進するはずです。

ここでは、この作業で比較する方法について簡単に説明します。 実装の詳細については、コード ベースとドキュメントを参照してください。

生涯学習の最も単純な形式には、以前のタスクからのサンプルをトレーニング データにインターリーブすることが含まれます。 メモリ バッファのサイズによって、そのようなサンプルがいくつ保存されるかが決まります。 Lifelong nnU-Net フレームワークを使用すると、ユーザーはタスクとメモリ バッファーのサイズを指定するわずか 1 行のコードでこのタイプのトレーニングを実行できます。 必要なコマンドの例を図 12 に示します。リハーサルは、優れたパフォーマンスを一貫して保証する非常に効果的な戦略ですが、トレーニング サンプルの保存が許可されていない設定では許容されません。

リハーサルを伴うトレーニングを実行するためのコマンドライン ディレクティブ。 オプションのシード引数を使用して、前のタスクから決定論的な方法でサンプルを選択することもできます。

他のメソッドの実行も同様の方法で実行されますが、ハイパーパラメーターは異なります。

正則化ベースのアプローチは、各トレーニング パラメーターの重要性を評価し、重要性によって重み付けされた前の状態からの乖離にペナルティを課します。 \(\lambda\) パラメーターは、この正則化損失とターゲット損失 (画像セグメンテーションの場合) の大きさに重みを付けます。 正則化ベースの方法の主な違いは、重要度の計算方法にあります。 一般的な EWC 手法 25 は、モデルの出力がワンホット エンコードされた予測からどの程度離れているかを測定するフィッシャー情報マトリックスを利用します。

LwF メソッド 26 は 3 つのトレーニング段階で構成されます。 (1) タスク \(\mathscr {T}_{i}\) のトレーニング フェーズの後、タスク \(\mathscr {T}_{i+1}\) を開始する前に、モデルは \(\mathscr { F}_{[i]}^i(\mathscr {T}_{i+1})\) が記録され、\(\mathscr {T}_{i+1}\) に対して新しいヘッドが作成されます。 (2) 次に、共有パラメータが凍結され、新しいヘッドのみがトレーニングされます。 (3) 最後に、すべての頭部と共通のボディを微調整します。 最初のステップで記録された出力は、前のヘッドのトレーニングに使用されます。

以前に導入した EWC と Path Integral を組み合わせて RW27 を形成します。 EWC との主な違いは、各パラメーターの重要性を評価するためのフィッシャー情報マトリックスのオンライン計算です。 この変更により、フィッシャー値を取得するためのトレーニングの最後に追加のフォワード パスを省略できます。

MiB28 メソッド (特にセマンティック セグメンテーション用に開発されたもの) は、修正されたクロス エントロピー損失と知識蒸留項を組み合わせて使用​​します。 知識の蒸留は、現在のネットワーク \(\mathscr {F}_{\theta }\) を強制的にアクティブ化し、以前のネットワーク \(\mathscr {F}_{\theta _{i-1) と同様にするために使用されます。 }}\)。

私たちは、ほとんどのアプリケーションに推奨される nnU-Net のフル解像度バージョンをトレーニングします24。 これはパッチベースの 3 次元ネットワークです。 3 つのユースケースのそれぞれについて、モデルは 250 エポックのすべてのデータセットでトレーニングされます。

nnU-Net は、ネットワーク アーキテクチャとトレーニング プロセスのハイパーパラメータ (エンコード ブロックの数、学習率、パッチ サイズなど) をトレーニング データから自動的に構成します。 これらのパラメーターは、同じユースケースのデータセット間で異なる可能性があります。 私たちのフレームワークでは、最初のデータセットに選択された構成を常に使用します。これは、実際の継続的な設定ではアーキテクチャの構築時にこのデータのみが利用できるため、最も現実的な選択です。

特に明記されていない限り、以前の研究で使用されたハイパーパラメータ、またはエポックの一部を使用した予備実験で合理的な損失軌跡を示したハイパーパラメータを選択します。 心臓実験については、表 2 のいくつかの設定をテストします。リハーサルについては、以前に確認したタスクのケース数を現在のタスクに含める割合を 25% とします。 EWC の場合、正規化項の重み付けにデフォルト値 \(\lambda =0.4\) を使用します。 LwF の場合、知識蒸留温度を海馬では 8、前立腺では 64 に設定しました。 RW の場合、正則化には \(\lambda =0.4\) が、フィッシャー値の計算には \(\alpha =0.9\) が使用されます。 MiB は、海馬の場合は \(\alpha =0.9\)、前立腺の場合は \(\alpha =0.75\) でソフト ラベルをハード化します。

詳細については、コードベースとドキュメントを参照してください。

この作業で使用されているすべてのデータセットは公開されており、ダウンロード手順はそれぞれのリファレンスの下にあります。

私たちのコードは https://github.com/MECLabTUDA/Lifelong-nnUNet で入手できます。 ご要望に応じて、トレーニングされたモデルへのアクセスを容易にすることができます。

Johnson, C. 米国と英国の医療システムにおける大規模で安全性が重要なソフトウェア プロジェクトの取得と導入における共通の問題を特定します。 サフ。 科学。 49、735–745 (2011)。

記事 Google Scholar

ヤン、W.ら。 医用画像のセグメンテーションとunet-ganによるベンダー適応のドメインシフト問題。 医用画像コンピューティングとコンピュータ支援介入に関する国際会議、623–631 (Springer、2019)。

ゴンザレス、C.ら。 事前トレーニングされた nnu-net モデルが covid-19 肺病変セグメンテーションでサイレントに失敗したことを検出します。 医用画像コンピューティングとコンピュータ支援介入に関する国際会議、304–314 (Springer、2021)。

Liu、X.ら。 医療アルゴリズム監査。 ランセット ディジット ヘルス (2022)。

食品、U、管理、D. 他人工知能/機械学習 (ai/ml) ベースの医療機器としてのソフトウェア (samd) アクション プラン。 米国食品医薬品局、米国メリーランド州ホワイトオーク、テック。 議員番号 145022 (2021)。

Rieke, N. et al. フェデレーテッド ラーニングによるデジタル ヘルスの未来。 NPJ 桁。 医学。 3、1–7 (2020)。

記事 Google Scholar

シェラー、MJ 他医学におけるフェデレーテッド ラーニング: 患者データを共有せずに多施設のコラボレーションを促進します。 科学。 議員 10、1–12 (2020)。

記事 Google Scholar

Memmel, M.、Gonzalez, C.、Mukhopadhyay, A. マルチドメイン海馬セグメンテーションのための敵対的継続学習。 ドメインの適応と表現の移転、およびリソースの多様なグローバルヘルスのための手頃な価格のヘルスケアと AI、35–45 (Springer、2021)。

Baweja, C.、Glocker, B. & Kamnitsas, K. 医用画像処理における継続的な学習に向けて。 arXiv プレプリント arXiv:1811.02496 (2018)。

パーコニッグ、M. et al. 動的記憶により、医療画像による継続的な学習における壊滅的な物忘れを軽減します。 ナット。 共通。 12、1–12 (2021)。

記事 Google Scholar

Srivastava, S.、Yaqub, M.、Nandakumar, K.、Ge, Z.、Mahapatra, D. リソースが少ない臨床現場における胸部 X 線分類のための継続的なドメイン増分学習。 ドメインの適応と表現の移転、およびリソースの多様なグローバルヘルスのための手頃な価格のヘルスケアと AI、226–238 (Springer、2021)。

Vokinger, KN、Feuerriegel, S. & Kesselheim, AS 医療機器における継続的な学習: FDA の行動計画とその先へ。 ランセット ディジット ヘルス 3、e337–e338 (2021)。

論文 CAS PubMed Google Scholar

Lee, CS & Lee, AY 継続学習機械学習の臨床応用。 ランセット ディジット ヘルス 2、e279–e281 (2020)。

論文 PubMed PubMed Central Google Scholar

Vokinger, KN & Gasser, U. 米国とヨーロッパにおける医療における AI の規制。 ナット。 マッハ。 知性。 3、738–739 (2021)。

論文 PubMed PubMed Central Google Scholar

Prabhu, A.、Torr, PH、Dokania, PK Gdumb: 継続的な学習における私たちの進歩に疑問を投げかけるシンプルなアプローチ。 European Conference on Computer Vision、524–540 (Springer、2020)。

Mundt, M.、Hong, YW、Pliushch, I.、Ramesh, V. ディープ ニューラル ネットワークによる継続学習の全体像: 忘れられた教訓と、アクティブでオープンワールドな学習への架け橋。 arXiv プレプリント arXiv:2009.01797 (2020)。

Hsu, Y.-C.、Liu, Y.-C.、Ramasamy, A. & Kira, Z. 継続学習シナリオの再評価: 強力なベースラインの分類と事例。 arXiv プレプリント arXiv:1810.12488 (2018)。

ロモナコ、V. et al. Avalanche: 継続的な学習のためのエンドツーエンドのライブラリ。 コンピューター ビジョンとパターン認識に関する IEEE/CVF 会議議事録、3600–3610 (2021)。

Gonzalez, C.、Sakas, G.、Mukhopadhyay, A. 医療画像セグメンテーションにおける継続学習の何が問題なのでしょうか? arXiv プレプリント arXiv:2010.11008 (2020)。

michieli, U. & Zanuttigh, P. セマンティック セグメンテーションのための増分学習技術。 コンピューター ビジョン ワークショップに関する IEEE 国際会議議事録 (2019 年)。

Cermelli, F.、Mancini, M.、Bulo, SR、Ricci, E.、Caputo, B. セマンティック セグメンテーションにおける増分学習の背景のモデル化。 コンピューター ビジョンとパターン認識に関する IEEE/CVF 会議議事録、9233–9242 (2020)。

グエン、G.ら。 継続的な学習における壊滅的な忘却を深い視覚化によって分析します。 arXiv プレプリント arXiv:2001.01578 (2020)。

松本 A. & 柳井 K. タスク依存の重み選択マスクを使用した画像変換ネットワークの継続学習。 ACPR 2、129–142 (2019)。

Google スカラー

Isensee, F.、Jaeger, PF、Kohl, SA、Petersen, J. & Maier-Hein, KH nnu-net: 深層学習ベースの生物医学画像セグメンテーションのための自己構成手法。 ナット。 方法 18、203 ~ 211 (2021)。

論文 CAS PubMed Google Scholar

カークパトリック、J. et al. ニューラル ネットワークにおける壊滅的な忘却の克服。 手順国立アカド。 科学。 114、3521–3526 (2017)。

論文 ADS MathSciNet CAS PubMed PubMed Central MATH Google Scholar

Li, Z. & Hoiem, D. 忘れずに学ぶ。 IEEEトランス。 パターンアナル。 マッハ。 知性。 40、2935–2947 (2017)。

論文 PubMed Google Scholar

Chaudhry, A.、Dokania, PK、Ajanthan, T. & Torr, PH 漸進的学習のためのリーマンの歩み: 忘却と不屈の理解。 欧州コンピュータ ビジョン会議 (ECCV) の議事録、532–547 (2018)。

Cermelli, F.、Mancini, M.、Bulo, SR、Ricci, E.、Caputo, B. セマンティック セグメンテーションにおける増分学習の背景のモデル化。 コンピューター ビジョンとパターン認識に関する IEEE/CVF 会議議事録、9233–9242 (2020)。

Verwimp, E.、De Lange, M.、Tuytelaars, T. リハーサルで明らかになった: 継続的な学習におけるサンプルの再検討の限界とメリット。 arXiv プレプリント arXiv:2104.07446 (2021)。

Aljundi, R.、Chakravarty, P.、Tuytelaars, エキスパート ゲート: 専門家のネットワークによる生涯学習。 コンピューター ビジョンとパターン認識に関する IEEE 会議議事録、3366 ~ 3375 (2017)。

Yushkevich, PA、Gao, Y. & Gerig, G. Itk-snap: マルチモダリティ生物医学画像の半自動セグメンテーションのための対話型ツール。 2016 年、IEEE Engineering in Medicine and Biology Society (EMBC) の第 38 回年次国際会議、3342–3345 (IEEE、2016)。

Liu, Q.、Dou, Q.、Yu, L. & Heng, PA Ms-net: 異種の MRI データを使用して前立腺のセグメンテーションを改善するためのマルチサイト ネットワーク。 IEEEトランス。 医学。 イメージング 39、2713–2724 (2020)。

論文 PubMed Google Scholar

Liu, Q. 前立腺 MRI セグメンテーション用のマルチサイト データセット。 https://liuquande.github.io/SAML/。

ブロッホ、NNCI-ISBI 他。 課題: 前立腺構造の自動セグメンテーション。 Cancer Imaging Arch.https://doi.org/10.7937/K9/TCIA.2015.zF0vlOPv (2013)。

記事 Google Scholar

ルメートル、G. et al. モノパラメトリック MRI およびマルチパラメトリック MRI に基づく前立腺がんのコンピューター支援検出および診断: レビュー。 計算します。 バイオル。 医学。 60、8–31 (2015)。

論文 PubMed Google Scholar

Litjens、G. et al. MRI の前立腺セグメンテーション アルゴリズムの評価: PROMISE12 の課題。 医学。 アナル画像。 18、359–373 (2014)。

論文 PubMed Google Scholar

シンプソン、アラバマら。 セグメンテーション アルゴリズムの開発と評価のための、注釈付きの大規模な医療画像データセット。 CoRRarXiv:abs/1902.09063 (2019)。

ボカルディ、M.ら。 eadc-adni 調和海馬プロトコルに基づく海馬セグメンテーションのトレーニング ラベル。 アルツハイマー型認知症。 11、175–183 (2015)。

記事 Google Scholar

Kulaga-Yoskovitz, J. et al. マルチコントラストサブミリ波 3 テスラ海馬サブフィールド セグメンテーション プロトコルとデータセット。 科学。 データ 2、1 ~ 9 (2015)。

記事 Google Scholar

カンペッロ、VM 他マルチセンター、マルチベンダー、マルチ疾患の心臓セグメンテーション: m&ms の課題。 IEEEトランス。 医学。 イメージング 40、3543–3554 (2021)。

論文 PubMed Google Scholar

Díaz-Rodríguez, N.、Lomonaco, V.、Filliat, D. & Maltoni, D. 忘れないでください、忘れているだけではありません: 継続的な学習のための新しい指標。 NeurIPS 2018 (神経情報処理システム) の継続学習ワークショップにて (2018)。

リファレンスをダウンロードする

この研究は、EVA-KI [ZMVI1-2520DAT03A] の助成金を得てドイツ連邦省 (BMG) によって支援されました。

Projekt DEAL によって実現および組織されたオープンアクセスの資金調達。

ダルムシュタット工科大学、カロリーネンプル。 5、64289、ダルムシュタット、ドイツ

カミラ・ゴンザレス、アミン・ラネム、アニルバン・ムコパディヤイ

ケルン大学病院、ケルペナー通り 62、50937、ケルン、ドイツ

ダニエル・ピント・ドス・サントス

フランクフルト大学病院、Theodor-Stern-Kai 7、60590、フランクフルト、ドイツ

ダニエル・ピント・ドス・サントス

University Medical Center Mainz、Langenbeckstrasse 1、55131、マインツ、ドイツ

アーメド・オスマン

PubMed Google Scholar でこの著者を検索することもできます

PubMed Google Scholar でこの著者を検索することもできます

PubMed Google Scholar でこの著者を検索することもできます

PubMed Google Scholar でこの著者を検索することもできます

PubMed Google Scholar でこの著者を検索することもできます

CG は実験を考案し、フレームワークの開発を開始し、結果を分析しました。 ARはあらゆる手法を実装し、実験を行った。 DS と AO は、臨床的な観点から問題設定と実験を動機付け、レビューしました。 AM が研究の開発を主導しました。 著者全員が原稿をレビューしました。

カミラ・ゴンサレスへの通信。

著者らは競合する利害関係を宣言していません。

シュプリンガー ネイチャーは、発行された地図および所属機関における管轄権の主張に関して中立を保ちます。

オープン アクセス この記事はクリエイティブ コモンズ表示 4.0 国際ライセンスに基づいてライセンスされており、元の著者と情報源に適切なクレジットを表示する限り、あらゆる媒体または形式での使用、共有、翻案、配布、複製が許可されます。クリエイティブ コモンズ ライセンスへのリンクを提供し、変更が加えられたかどうかを示します。 この記事内の画像またはその他のサードパーティ素材は、素材のクレジットラインに別段の記載がない限り、記事のクリエイティブ コモンズ ライセンスに含まれています。 素材が記事のクリエイティブ コモンズ ライセンスに含まれておらず、意図した使用が法的規制で許可されていない場合、または許可されている使用を超えている場合は、著作権所有者から直接許可を得る必要があります。 このライセンスのコピーを表示するには、http://creativecommons.org/licenses/by/4.0/ にアクセスしてください。

転載と許可

ゴンザレス、C.、ラネム、A.、ピント ドス サントス、D. 他 Lifelong nnU-Net: 標準化された医療継続学習のためのフレームワーク。 Sci Rep 13、9381 (2023)。 https://doi.org/10.1038/s41598-023-34484-2

引用をダウンロード

受信日: 2022 年 10 月 25 日

受理日: 2023 年 5 月 2 日

公開日: 2023 年 6 月 9 日

DOI: https://doi.org/10.1038/s41598-023-34484-2

次のリンクを共有すると、誰でもこのコンテンツを読むことができます。

申し訳ございませんが、現在この記事の共有リンクは利用できません。

Springer Nature SharedIt コンテンツ共有イニシアチブによって提供

コメントを送信すると、利用規約とコミュニティ ガイドラインに従うことに同意したことになります。 虐待的なもの、または当社の規約やガイドラインに準拠していないものを見つけた場合は、不適切としてフラグを立ててください。

共有