E資格~模擬試験②~ 2024年12月7日 ailearn 1. 次のうち、ブースティングにおける勾配ブースティング(Gradient Boosting)の主な特徴として最も適切なものはどれですか? 勾配消失問題を解決する モデルのパラメータ数を削減する データセットの拡張を行う 前のモデルの予測誤差を利用して次のモデルを改善する None 2. エッジコンピューティングの利点として正しいものはどれですか? データ処理の遅延を減らす データの安全性を低下させる データの送信コストを増加させる すべてのデータをクラウドに集約する None 3. LIME(Local Interpretable Model-agnostic Explanations)の主な特徴は何ですか? モデル全体の動作をシミュレーションする ランダムにデータを選んでモデルの予測を評価する 特定の予測に対して、シンプルなローカルモデルを使って説明を行う モデルのパラメータを全て可視化する None 4. エッジコンピューティングが特に有効となるケースはどれですか? クラウドの処理能力が高い場合 データ転送量を減らしたい場合 大量のデータを一括で処理する場合 データのバックアップを行う場合 None 5. リカレントニューラルネットワーク(RNN)で頻繁に使用される勾配消失問題とは何ですか? パラメータが増加しすぎる問題 勾配が大きくなりすぎる問題 誤差が伝播しない問題 勾配が非常に小さくなるため、学習が進まない問題 None 6. 「スパース学習」とは何を目的とする手法ですか? モデルの精度を向上させるためにパラメータ数を増やす モデルのパラメータの多くを0にすることで、計算コストを削減する ラベルなしデータを用いて特徴を学習する 報酬を用いてモデルを訓練する None 7. 「半教師あり学習」はどのようなデータを用いる学習方法ですか? ラベル付きデータのみを使用する ラベルなしデータのみを使用する 少量のラベル付きデータと大量のラベルなしデータを組み合わせて使用する ラベル付きデータを生成する None 8. ディープラーニング環境をGPU対応にするために必要な操作として最も適切なものはどれですか? CPUのみを使用するように環境を設定する GPUを無効化してトレーニングを行う 特定のライブラリをインストールせずにトレーニングを行う GPU対応のディープラーニングライブラリとCUDAおよびcuDNNのインストール None 9. 次のうち、「ローカル説明」とは何を指しますか? モデル全体の振る舞いを説明すること 特定の予測結果に対してその理由を説明すること モデルの訓練データの説明を行うこと モデルの訓練プロセス全体を説明すること None 10. 次のうち、深層学習の「解釈性」と「説明性」の違いとして最も正しい説明はどれですか? 解釈性は予測精度の向上に関わるが、説明性は関係しない 解釈性はモデルの内部構造を理解すること、説明性はモデルの予測結果の理由を明示すること 解釈性はブラックボックス性を強化すること、説明性は精度を最大化すること 解釈性はモデルのパフォーマンスを測定し、説明性はモデルを可視化すること None 11. 「説明可能な強化学習」で利用されることの多いアプローチはどれですか? 深層強化学習の全体的な挙動を評価する手法 データをランダムに選んでモデルを評価する手法 状態価値や行動価値を明示的に説明する手法 パラメータチューニングを用いる手法 None 12. 「MapReduce」の「Reduce」フェーズの役割は何ですか? Mapフェーズで生成されたキーと値のペアを集約し、最終結果を生成する 入力データを分割し、キーと値のペアを生成する データをクラウドに送信する データを保存する None 13. 次の文脈に最も適したアーキテクチャを選んでください:「非常に長いシーケンスを処理し、長期的な依存関係をより効率的にモデル化できる手法」 単純RNN GRU Transformer LSTM None 14. バッチ正規化を使用することで、次のどの効果が得られますか? モデルの収束速度が速くなる トレーニングデータの必要量が増加する 正則化の効果が薄れる 勾配爆発問題が発生しやすくなる None 15. 分散処理システムにおいて「一貫性、可用性、分断耐性(CAP定理)」に関して正しい説明はどれですか? 一度に全てを満たすことが可能である 一度に全てを満たすことはできず、トレードオフが必要である 可用性だけが重要である 分断耐性は重要ではない None 16. 「グローバル説明」とは何を指しますか? モデル全体の振る舞いを説明すること 特定の予測結果に対する理由を説明すること モデルの訓練データの説明を行うこと モデルの訓練プロセスを可視化すること None 17. 次のうち、Wasserstein GAN(WGAN)の目的は何ですか? GANのモード崩壊問題を完全に解決する GANの学習の安定性を向上させ、生成データの質を高める GANのトレーニング時間を短縮する VAEと統合するための手法を提供する None 18. 次のうち、強化学習において「多腕バンディット問題」が示す課題として最も適切なものはどれですか? 状態空間の次元削減に関する課題 環境の報酬構造を推定する課題 行動の決定に時間がかかる問題 探索と活用のバランスを取る課題 None 19. リカレントニューラルネットワーク(RNN)の最大の特徴は何ですか? 非線形活性化関数を使用すること パラメータの共有がないこと 時系列データに適していること 固定長のデータのみを扱うこと None 20. エッジコンピューティングにおけるセキュリティ上の課題として正しいものはどれですか? デバイスが分散しているため、物理的なセキュリティが難しい データの一元管理が可能である ネットワーク負荷が軽減される クラウド上で全てのデータを保管する None 21. エッジコンピューティングがクラウドコンピューティングと異なる点として正しいものはどれですか? 大規模なデータのバックアップを行う クラウドに全データを保存する データの処理をローカルで行う 処理能力がクラウドよりもはるかに高い None 22. 次のうち、GPUアクセラレータがデータセンターで広く使用される理由として正しいものはどれですか? 高い並列処理能力を持ち、ビッグデータやAI関連の処理を効率的に行えるため 消費電力が少なく、コストが安いため ストレージ容量が多いため ネットワーク管理に特化しているため None 23. Transformerにおける「Encoder-Decoder構造」の役割は何ですか? データの圧縮と復元 入力データと出力データの間でシーケンスを学習する 勾配の計算を高速化する バッチ処理を効率化する None 24. 自己教師あり学習の代表的な手法「SimCLR」の特徴は何ですか? ラベル付きデータを用いてモデルを訓練する 入力データに対して異なる拡張を施し、コントラスト損失を用いて特徴を学習する 生成モデルを用いてデータを生成する 逐次データを用いてリアルタイムに学習を行う None 25. 「クロスバリデーション」の目的は何ですか? モデルのパラメータ数を減らす モデルの学習速度を向上させる モデルの性能をより正確に評価する データ拡張を行う None 26. 「説明可能AI」の導入が特に重要視されるケースはどれですか? ゲームAIやチャットボット 音声認識システム 画像処理タスク 医療診断システムや金融スコアリングシステムなどの分野 None 27. 次のうち、生成モデルの一種である「Energy-Based Model(EBM)」の特徴はどれですか? データを確率密度に変換する ラベル付きデータのみを使用して学習する 生成器と判別器を同時に使用する エネルギー関数を定義し、低エネルギー状態のデータを生成する None 28. アンサンブル学習(Ensemble Learning)の目的として正しいものはどれですか? モデルのパラメータ数を減らす 複数のモデルを組み合わせて汎化性能を向上させる データの前処理を効率化する モデルのトレーニング時間を短縮する None 29. Bidirectional LSTMのメリットとして、最も適切なものはどれですか? 計算速度が速い 双方向から情報を処理するため、シーケンス全体の文脈を理解できる メモリ消費が少ない 勾配消失問題が完全に解決される None 30. 分散処理システムの利点として正しいものはどれですか? 計算リソースの効率的な利用 全てのデータを一箇所に集約して管理する 一台のサーバーに負荷を集中させる ネットワーク帯域を減らす None 31. 分散処理システムでの「レプリケーション」の目的は何ですか? データの可用性と耐障害性を高めるために、データを複数の場所にコピーする データを削除してシステムの負荷を軽減する データを一箇所に集約して処理する データをクラウドに送信する None 32. エッジコンピューティングにおける「フォグコンピューティング」との違いとして正しいものはどれですか? フォグコンピューティングはエッジデバイスよりも上位のネットワーク層で処理を行う フォグコンピューティングはクラウドのみで処理を行う フォグコンピューティングはエッジデバイスを使用しない フォグコンピューティングはすべての処理をローカルで完結する None 33. リカレントニューラルネットワーク(RNN)における「Teacher Forcing」の目的は何ですか? 学習を高速化するため 勾配消失問題を防ぐため モデルが過去の正しい出力に基づいて学習するようにするため 過学習を防ぐため None 34. 分散処理における「キャッシュの一貫性」を保つために使用される技術はどれですか? キャッシュコヒーレンスプロトコル 二相コミットプロトコル リーダー選出アルゴリズム データローカリティ None 35. 「教師なしクラスタリング」でよく使われる手法はどれですか? サポートベクターマシン(SVM) ディープニューラルネットワーク ロジスティック回帰 K-means法 None 36. スパース学習において、L1正則化がモデルに与える影響は何ですか? パラメータの値を増加させる モデルの全てのパラメータを均等に更新する モデルの複雑さを増す 多くのパラメータをゼロに近づけ、スパース性を促進する None 37. 次のうち、アクセラレータの導入が不適切なシナリオはどれですか? 大規模なディープラーニングモデルのトレーニング 小規模で単純な計算タスクの実行 GPUを使用した3Dレンダリング FPGAを使用した信号処理 None 38. 「HDFS(Hadoop Distributed File System)」の特徴として正しいものはどれですか? データを一元的に保存する従来型のファイルシステム 大規模データを分散して保存し、高い耐障害性を持つファイルシステム データベースの検索を高速化するためのファイルシステム 小規模データの保存に特化したファイルシステム None 39. 次のうち、LSTMが通常のRNNに比べて勾配消失問題に対処できる理由として正しいものはどれですか? LSTMは逆伝播を行わない LSTMは短期的な情報のみを保持する LSTMはゲート機構を利用して、重要な情報を長期的に保持できる LSTMは隠れ層の重みを固定する None 40. アクセラレータを使用したディープラーニングのトレーニングにおいて、重要なパラメータの一つである「バッチサイズ」が大きくなると、どのような効果が期待されますか? メモリ使用量が減少し、トレーニングが遅くなる メモリ使用量が増加し、トレーニングが高速化する メモリ使用量が増加し、トレーニングが遅くなる メモリ使用量が減少し、トレーニングが高速化する None 41. 仮想環境「Anaconda」が提供する主な機能はどれですか? ウェブサイトのホスティング ゲーム開発環境の構築 クラウドサーバーの管理 データサイエンスや機械学習のためのPython環境とパッケージ管理の統合 None 42. Jupyter Notebookの主な用途は何ですか? データベースの管理ツール インタラクティブなデータ分析やプログラム実行を行うツール クラウドサーバーの運用ツール グラフィック処理の最適化ツール None 43. 分散処理システムにおける「分散キュー」の役割として正しいものはどれですか? データをクラウドに保存する 複数のプロセス間でタスクを管理し、順序を保つ 処理タスクを一台のサーバーで管理する データのバックアップを行う None 44. 以下のうち、L1正則化の特徴はどれですか? 大きなパラメータにペナルティを与える モデルのトレーニング速度を向上させる モデルの精度を下げる パラメータをゼロにすることでスパース性を促進する None 45. GPUとFPGAのハイブリッドシステムを導入することで期待できる効果として最も適切なものはどれですか? 両方の利点を活かし、高速な並列計算とタスクごとの最適化が可能になる 消費電力を大幅に削減できる ストレージ容量が増える ネットワーク速度が向上する None 46. ディープラーニング環境を構築する際に一般的に使用されるプログラミング言語はどれですか? C++ Python Java Ruby None 47. 強化学習の「オフポリシー学習」とは何ですか? エージェントが同じ行動を繰り返す学習 エージェントがリアルタイムで行動を修正する学習 エージェントが現在の方策に従わずに学習すること エージェントが報酬の割引率を調整する学習 None 48. リカレントニューラルネットワーク(RNN)における「バックプロパゲーション・スルー・タイム(BPTT)」の最大の課題は何ですか? 勾配爆発 メモリ効率の悪さ 勾配消失 学習速度の低下 None 49. 「フェアネス」の確保が特に重要な領域はどれですか? 医療、金融、司法などの分野 画像分類タスク 音声認識システム ゲームAI None 50. ディープラーニングの推論において、TPUがGPUに対して有利となる理由として最も適切なものはどれですか? TPUはグラフィックス処理が得意であるため TPUはプログラミングが容易であるため TPUはディープラーニング専用のハードウェアとして設計されており、推論に特化して最適化されているため TPUは消費電力が高いため None 51. 次の中で、BERT(Bidirectional Encoder Representations from Transformers)とTransformerの主な違いとして正しいものはどれですか? BERTは双方向の自己注意を使用し、Transformerは単方向の自己注意を使用する BERTはエンコーダー部分のみを使用し、Transformerはエンコーダーとデコーダーの両方を使用する BERTは逐次処理を行い、Transformerは並列処理を行う BERTは画像データ専用で、Transformerはテキストデータ専用である None 52. 次のうち、ドロップアウトを適用する際に避けるべき層はどれですか? 入力層 隠れ層 出力層 全結合層 None 53. 「ハードサンプルマイニング」とは、どのような手法ですか? ラベルなしデータを用いてランダムにサンプリングする手法 モデルのパラメータ数を削減する手法 モデルが誤分類しやすいデータを重点的に学習する手法 ラベル付きデータを使わずに学習する手法 None 54. アクセラレータとして最も一般的に使用されるデバイスはどれですか? GPU(Graphics Processing Unit) HDD(Hard Disk Drive) SSD(Solid State Drive) NIC(Network Interface Card) None 55. 複数のプロジェクトで異なるバージョンのPythonやライブラリを利用する場合、どのような環境構築手法が推奨されますか? すべてのプロジェクトで同じ環境を使い回す システム全体にすべてのライブラリをインストールする 各プロジェクトで同じライブラリのバージョンを強制的に使用する 各プロジェクトごとに仮想環境を作成し、依存関係を分離する None 56. エッジコンピューティングの導入によって、クラウド上のデータ処理に与える影響として正しいものはどれですか? クラウドへのデータ送信量が減り、クラウドの負荷が軽減される クラウドへのデータ送信量が増え、クラウドの負荷が増加する クラウドの負荷には全く影響しない クラウドへの依存が完全になくなる None 57. VAEにおける「エビデンス下界(ELBO)」の役割は何ですか? モデルのパラメータ数を増やす モデルの学習を安定化させるための目的関数 データを圧縮するための手法 モデルの精度を評価するための指標 None 58. 次のうち、Python環境におけるパッケージ管理ツールとして最も広く利用されているものはどれですか? Maven pip NPM Gradle None 59. 分散処理システムで使われる「マスター・スレーブアーキテクチャ」とは何ですか? すべてのノードが同等にタスクを分担するアーキテクチャ 各ノードが独立して動作するアーキテクチャ タスクを一台のサーバーで処理するアーキテクチャ マスターがタスクを管理し、スレーブが処理を実行するアーキテクチャ None 60. 自動運転車におけるエッジコンピューティングの役割として最も重要なものはどれですか? 車両がクラウドサーバーにすべてのデータを送信して処理する 車両内でデータを保管するだけで、クラウドに依存する 車両が他の車両とデータを共有するための手段を提供する 車両内でリアルタイムにデータを処理し、外部ネットワークに依存せずに意思決定を行う None 61. 「可視化に基づく説明性」を高めるために、畳み込みニューラルネットワークで使われる技術はどれですか? パラメータチューニング フィルター可視化 バッチ正規化 データ拡張 None 62. 「自己教師あり学習」はどのような手法ですか? 報酬を与えてエージェントに学習させる モデルが自らデータを生成する 他のモデルから知識を転移する ラベルなしデータに対して擬似ラベルを生成し、そのラベルでモデルを訓練する None 63. ディープラーニング環境において、仮想環境「Docker」を用いる際に、GPUを使用するために必要なセットアップはどれですか? Dockerコンテナ内でJupyter Notebookをインストールする Dockerコンテナを使ってPythonパッケージを管理する Dockerコンテナ内でNVIDIAのCUDAおよびnvidia-docker2プラグインをインストールする Dockerコンテナを使ってAnacondaをインストールする None 64. Transformerモデルで使用される「自己注意(Self-Attention)」機構の役割は何ですか? シーケンス内の全ての単語に均一な重みを割り当てる 各単語の相対的位置関係を強調する 各単語がシーケンス内の他の単語とどのように関連するかを捉える 各単語をランダムにシャッフルする None 65. FPGAが特に有効となる応用分野はどれですか? 一般的なデータベース処理 ウェブページのレンダリング テキストエディタの動作 低遅延が要求されるリアルタイム処理や信号処理 None 66. 次のうち、エッジコンピューティングが適用される例として最も適切なものはどれですか? センサーが集めたデータをリアルタイムで処理するIoTシステム 大規模なデータセンターでのバックアップ処理 個人のパソコンでのデータ保存 クラウド上でのデータ分析 None 67. 次のうち、Transformerにおける「マスク付き注意機構(Masked Attention)」の役割として正しいものはどれですか? 現在のトークン以降の情報を参照できないようにする 出力の一部を無視する モデルの計算速度を向上させる モデルの重みを固定する None 68. 「反事実的説明(Counterfactual Explanation)」の主な目的は何ですか? 予測結果が変わるために、どの特徴量をどの程度変えるべきかを示す モデルのパラメータを変更する手法を提示する ランダムに特徴量を入れ替えて結果を評価する 予測結果を変更することなくデータを拡張する None 69. Gated Recurrent Unit(GRU)の特徴として正しいものはどれですか? 忘却ゲートがない 出力ゲートがない 計算がLSTMより複雑 勾配消失問題を解決しにくい None 70. 「アンサンブル学習」において、バギングを使用する際、各モデルに異なるデータを提供するために使用される手法はどれですか? ドロップアウト ブートストラップサンプリング 早期停止 クロスバリデーション None 71. 生成モデルとは何を行うモデルですか? データの分類を行うモデル データの生成を行うモデル データの回帰を行うモデル データの削減を行うモデル None 72. VAEの潜在空間における「再パラメータ化トリック」の目的は何ですか? データの次元を削減する モデルの学習速度を速める 勾配を計算可能にし、バックプロパゲーションを適用できるようにする モデルの精度を下げる None 73. 「環境構築」とは何を指しますか? ソフトウェアの実行に必要な開発・運用環境を整備する作業 プログラムのデバッグ作業 ネットワークの設定作業 ソフトウェアの保守とサポート業務 None 74. Transformerモデルにおける「Layer Normalization」は、どの段階で適用されますか? マルチヘッド注意機構の出力と残差接続の間 フィードフォワード層の入力部分 モデル全体の最終層 ポジショナルエンコーディングの後 None 75. Transformerのマルチヘッド注意機構では、異なる「ヘッド」を使用する利点は何ですか? モデルのパラメータ数を減少させるため 異なる部分の情報に注意を向け、より多様な特徴を学習するため モデルの計算速度を向上させるため 出力層での勾配を安定させるため None 76. エッジコンピューティングの進化に伴い、将来的に予測される応用分野として適切なものはどれですか? 大規模なデータセンターの運営 オンラインショッピングの配送管理 デスクトップアプリケーションの処理 スマートシティのリアルタイム交通管理システム None 77. 次の中で、GRUとLSTMの主な違いとして正しいものはどれですか? GRUはLSTMに比べてゲートの数が多い GRUは計算コストがLSTMよりも高い GRUは勾配消失問題に弱い GRUは出力ゲートを持たない None 78. FPGA(Field Programmable Gate Array)の特徴として正しいものはどれですか? 予め固定された構成を持つデバイス 主にデータストレージとして使用されるデバイス グラフィック処理を高速化するためのデバイス ユーザーがハードウェアの構成を再プログラム可能なデバイス None 79. 次のうち、深層強化学習でよく使用される「アクター・クリティック(Actor-Critic)」の特徴は何ですか? 方策を直接学習するアクターと、価値関数を学習するクリティックが協調して学習を行う エージェントが方策を持たずに学習を行う 環境の次の状態を予測するモデル 報酬が無い場合でも学習が進行する None 80. 「マルチエージェント強化学習」における課題の一つはどれですか? 他のエージェントとの相互作用により、環境が動的に変化する エージェントが報酬を得られない場合がある エージェントが単独で行動し続けること 環境が静的であること None 81. 「分散トランザクション処理」における「二相コミットプロトコル(2PC)」の目的は何ですか? データの転送速度を向上させる データを圧縮するためのプロトコル ノード間でデータを共有するプロトコル 分散システムにおけるデータの一貫性を確保する None 82. エッジコンピューティングが通信コスト削減に寄与する理由は何ですか? すべてのデータをクラウドに送信するから クラウド側で計算を行い、デバイスに結果を返すから データをエッジデバイスで処理し、クラウドへの送信データ量を減らすから 大量のデータを一度に送信するから None 83. GPUと比べたFPGAの利点として正しいものはどれですか? 固定されたアーキテクチャを持ち、高速な並列計算が得意である 主にグラフィックス処理に使用される アーキテクチャを柔軟に変更でき、特定の用途に最適化できる 大規模なディープラーニングに特化している None 84. GPUを使用する利点として正しいものはどれですか? 並列計算による大量のデータ処理が可能 ストレージ容量が増加する ネットワーク速度が向上する データの一貫性が保証される None 85. Transformerにおける「Decoder」の役割として正しいものはどれですか? 入力シーケンスの圧縮された表現を生成する 自己注意のみを使用して出力を予測する 残差接続を使用して入力シーケンスをそのまま出力する エンコードされた情報を基に、出力シーケンスを逐次生成する None 86. 次のうち、データ拡張を行う際に最も適切なシナリオはどれですか? 学習データが非常に多い場合 学習データが少なく、汎化性能が低い場合 モデルが過学習をしていない場合 パラメータが多い場合 None 87. 自己注意(Self-Attention)機構の計算において、各トークンのスコアはどのように計算されますか? 各トークンのベクトルの内積 各トークンの位置情報を参照 トークンの順序を無視してランダムに決定 トークンの勾配に基づいて計算 None 88. 強化学習における「エージェント」の役割は何ですか? 環境の状態を制御する 環境からの報酬を基に行動を選択する 環境の次の状態を予測する 報酬を設定する None 89. RNNの勾配爆発問題に対処するために採用される技術は次のうちどれですか? 勾配クリッピング ドロップアウト L2正則化 バッチ正規化 None 90. 次のうち、Seq2SeqモデルのDecoder部分で使われる典型的なRNNアーキテクチャはどれですか? CNN LSTM MLP Transformer None 91. GANにおける「ミニバッチディスクリミネーター」とは何ですか? 生成器がミニバッチ単位でデータを生成する機能 モデル全体を小さくする機能 勾配消失問題を解決するための機能 判別器がミニバッチ内の複数のサンプル間の違いを考慮して判断する機能 None 92. 「アンサンブル学習」におけるブースティングの目的は何ですか? 複数の強い学習器を並列で訓練する ランダムにモデルを選択し、予測を行う データの次元を削減する 弱い学習器を連続的に訓練し、全体の予測精度を高める None 93. L2正則化の効果として正しいものはどれですか? 小さなパラメータをゼロにする モデルの複雑さを抑える パラメータに対するペナルティを与える モデルの精度を向上させる None 94. 分散処理システムにおいて「データローカリティ」とは何を指しますか? データを一箇所に集約して処理すること データを処理するノードが、データに近い場所にあること データをクラウドに保存すること データを定期的にバックアップすること None 95. 「深層学習の説明性」において、モデルの「ブラックボックス性」が指摘される理由は何ですか? モデルの構造が複雑で、人間が理解しにくいから モデルの性能が低いから モデルが全く訓練されていないから モデルがデータを十分に活用しないから None 96. 「アクセラレータ」とは、コンピュータシステムにおいてどのような役割を持つデバイスですか? 処理速度を高速化するための専用ハードウェア データの保存容量を増やすためのデバイス インターネットの接続速度を向上させるデバイス 電力消費を増加させるデバイス None 97. 強化学習において、報酬を割り引くために使用される値は何ですか? 学習率 割引率(Discount Factor, γ) 方策(Policy) 探索パラメータ None 98. 「ブラックボックス攻撃」とはどのようなものですか? モデルの内部構造を知らずに攻撃を行い、その結果を基にモデルの脆弱性を探る手法 モデルのパラメータを直接変更して攻撃する手法 モデルに対してラベル付きデータを用いて攻撃する手法 モデルの精度を最大化するための手法 None 99. 「データシャッフル」の効果として最も適切なものはどれですか? モデルの学習を高速化する トレーニングデータの順序依存性を排除し、より安定した学習を促す モデルの複雑さを低減する バッチサイズを調整する None 100. GAN(Generative Adversarial Network)の構成要素として正しいものはどれですか? エンコーダとデコーダ 判別器と生成器 バッチ正規化とドロップアウト 畳み込み層とプーリング層 None Time's up