2025-03-17 06:00 はてなブックマーク テクノロジー 人気エントリー

タイトル ブックマーク数

Windowsは内部的にどうやってインターネットへの接続状態を確認している?
397
ツイートする カテゴリートップへ PC PC PC PC PC PC PC PC PC PC PC PC PC ASCII倶楽部 ASCII倶楽部とは sponsored Backlogの効率的な運用や社外との連携をヘビーユーザーに聞いてみた sponsored 「便利だよ」「楽になるよ」じゃ人は動かない 華麗なる保守派の一族を変えるために sponsored 16型で1.28kgのスタンダードノートや、RTX 40シリーズ搭載ゲーミングノートなどをラインアップ sponsored sponsored 話題の光10ギガサービス、今がはじめどきの「5つの理由」 sponsored JAPANNEXTの「JN-IPS34G165UQ-HS」をレビュー sponsored 始めやすいは嘘じゃない SKYSEAクラウド版を情シスがレビュー sponsored sponsored JN-i55U-Uをレビュー sponsored 農作業効率化ソリューション「レポサク」を支える「MEEQ SIM」を紹介 sponsored 「きったん」と「あーけん」がkrewData活用をディープに語る sponsored ファーウェイ製品ならバッテリー長持ち&周りの音も聞こえて安心です sponsored 脅威の検知だけでなく対処までを自動化 「FortiEDR」で運用負荷の課題をクリア sponsored sponsored JN-IPS27Q4FL-HSPC9-DLをレビュー sponsored プランも機能差もたくさんあって迷ってしまうあなたのために sponsored Dropboxも自社で活用 営業から人事、総務まで幅広く使える最新ツール sponsored パソコンショップSEVENの「ZEFT Z55EU」について、中の人に聞いてきた sponsored sponsored MSI「Modern 14 F1M」レビュー sponsored JN-DMD-IPS156Fをレビュー sponsored 「なんとなく」でも割とどうにかなるのでご安心を! sponsored iiyama キャンパスPCの「STYLE-14FH124-i5-UC1X-CP25」をチェック sponsored JN-IPS238G180FHDをレビュー sponsored MSI「MPG B850 EDGE TI WIFI」レビュー sponsored AI学習向け/AI推論向けデータセンターとネットワーク、コンサルティングまでサービス提供 sponsored sponsored 大阪市内で2026年1月に運用開始する“コネクティビティデータセンター”、注目を浴びる背景やターゲットを聞く sponsored 31.5インチQD-OLEDパネルの4Kモデルに新色!MSI「MPG 321URXW QD-OLED」レビュー sponsored 表示形式: PC ⁄ スマホ。 http://www.msftconnecttest.com/connecttest.txt
http://ipv6.msftconnecttest.com/connecttest.txt
なお、NCSIでは、IPv4とIPv6のHTTPプローブは並列に実行され、どちらかが成功すれば、インターネット接続していると判断される。 Windows側に設定されたDNSサーバーで、DNSプローブ用ホスト名の名前解決が正しくできなかったら、Windows側のDNS設定に問題がある、あるいはキャプティブポータルがDNS名前解決を使ってログインページに誘導していると考えることができる。

Notionから79万円の請求が来て寿命が縮んだ話|newt
194
You're in: Your student org discount has been approved!We’re excited to share that your application has been approved for our student org discount! Your student org’s workspace has been upgraded to our free Plus plan, with unlimited member additions. You can confirm that your workspace has been upgraded by going to Settings & Members > Plans — your subscription should be updated to the Plus plan. Start adding your teammates as workspace members by heading to the People tab in our Settings page, and clicking on Add members. To set up your student organization’s workspace, use our templates to plan your org’s meetings & events, organize projects, and collaborate with your teams on Notion. P.S. Want to get more involved with Notion on your campus? Join our Campus Leaders community, and check out upcoming events popping up on your campus block. — The Notion Team その日じゅうにメールは確認しましたが、予定が立て込んでいた時期だったため、後日対応しようと放置していました。 We've received your student org applicationThanks for submitting an application!Our team will get back to you within the next couple weeks with an update on your application’s status.In the mean time, you can get your team set up in Notion with some of our favorite student-created templates → 学生団体向けプランの申し込みが受理されたとのメールが来る。本ワークスペースは1月6日に学生団体としての申請を行い、1月9日に申請が受理されているため、この請求も手違いによるものと考えております。

1円も使いたくない個人開発のための技術スタック
111
バックエンド処理は、Next.jsの"use server";を使えば簡単に行えるので、別にAPIを作ったりする必要はなさそうです。 Next.jsのおかげでフロントもバックエンドも一つのCloudflare Pagesにまとめて投稿できます。
PrismaをCloudflare Pagesで何度も試しましたが、学習コストが高くエラーもたくさん出たのでDrizzleのほうが使いやすいと思います。

「MCP?聞いたことあるけど使ってない…😅」人向けに初歩から少し踏み込んだ内容まで解説
348
ただいくつかはまった瞬間もあるのでトラブルシュートがてら書いておきます!
https://docs.cursor.com/context/model-context-protocol Cursor Settings > Features > MCP に移動して 「+ Add New MCP Server」をクリックする LLMが使えるMCPサーバーを登録する 夢が…夢が広がりますね… 大まかな流れはこんな感じで、アプリがMCPサーバーを通してツールを使い、その結果をAIモデルにわたし回答を生成しています。
Xなどで「〜なMCPサーバーを作った!」などを見かけた時は、
「標準化したルールでAI用のツールを作ったんだな!」と思ってもらえるといいと思います! ではMCPがあることでどんないいことがあるのでしょうか?
CursorやClineに めちゃくちゃ嬉しいですね…
「ただAIモデルにツールを使わせることができるってことが言いたいなら、今までFunctionCallingなどのAIモデルにツールを使わせる方法があったじゃないか!MCPのいいところじゃない!」
って反論があるかもですが、それは違います。
https://platform.openai.com/docs/guides/function-calling
MCPというのはAIモデルにツールを使わせるために標準化したルールを決めようというものでした。

まだPCにIAMアクセスキー保存してるの? ベスプラに沿って、AWS CLIやSDKから安全に開発しよう! – Qiita
113
Go to list of users who liked Delete article Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? AWSで開発をする際に必須のわりには、CLIやSDKからAWSアカウントへのアクセス設定ってかなり複雑ですよね。 個人用IAMユーザー(Assume Role権限のみ) -> Assume Roleを実施(MFA認証必須) -> 作業対象AWSアカウント(作業に必要なIAMロールを利用) ※AWSアカウントを分けているのは、個人用IAMユーザーを作業先アカウントごとに複数持たなくてもいいよう、1箇所に統一するためです。 個人用IAM IICユーザー(Assume Role権限のみ) -> Assume Roleを実施(MFA認証必須) -> 作業対象AWSアカウント(作業に必要なIAMロールを利用) IAMユーザーとは別に、IIC自体にユーザーアカウントを作成することができます。

SSRで認証をどうするべきか?
74
[3] https://www.flaticon.com/free-icons/vault (by IYIKON) https://www.flaticon.com/free-icons/key (by monkik) サーバに認証してもらうには、適切なタイミングでサーバにトークンを送る必要があります。 ZozoでフロントをNext.jsにした例
事前に行ったセッション管理の変更 記事にも書いてありますが、フロントエンドをNextJS化するのに先立ってASP側(IIS)のセッション管理を刷新してRedisに引越させています。 クライアント視点では、認証システムは突き詰めると、トークン(鍵)[2]を安全に保管し、必要時にサーバに渡す(鍵穴に差し込む) ことです。

GROK3に人間が回答するwebサービスを聞いたら「はてな人力検索」が出てこなかった件 – orangestar2
100
インターネットで特定の個人やまたは不特定の人に質問をして回答をもらう質問箱のようなサービスには何がありますか? https://x.com/i/grok/share/MC9O099UaKcuHE88RnY5E2Qky あんまりだ…酷い酷い…!まだまだはてな人力検索だってやれるんだ…っ!
って思いながら「はてな人力検索」を覗いたんですが q.hatena.ne.jp 実際にちょっと使ってみて、
「あー…これは駄目だ…」
と思いました…。 以下、GROK3に質問した内容とその回答はりつけ インターネットで特定の個人やまたは不特定の人に質問をして回答をもらう質問箱のようなサービスには何がありますか? インターネット上で特定の個人や不特定の人に質問をして回答をもらうことができる「質問箱」のようなサービスは、いくつか存在します。 はてな村奇譚上作者:小島アジコAmazonはてな村奇譚下作者:小島アジコAmazon はてな村奇譚上 はてな村奇譚下 orangestar
2025-03-16 17:33 漫画家です
[email protected] 引用をストックしました 引用するにはまずログインしてください 引用をストックできませんでした。

月のクレーターもばっちり 「COOLPIX P1100」は相変わらず常識を越えた超望遠カメラだった
116
Copyright © ITmedia, Inc. All Rights Reserved. 続きを読むには、コメントの利用規約に同意し「アイティメディアID」および「ITmedia NEWS アンカーデスクマガジン」の登録が必要です Special ITmediaはアイティメディア株式会社の登録商標です。 レンズやセンサーは先代P1000と同じなので(多少改良はされているかもしれないが)、高感度にはさほど強くなく、AFもコントラスト検出AFなのでさほど速くはない。 それが、2018年に登場した「COOLPIX P1000」の後継機「COOLPIX P1100」である。

自分がはてブした記事をPodcastにして配信する環境を作った
43
幸い今回のシステムは「はてブの取得」「記事の抽出」「要約」「音声ファイル化」「フィード生成」「website構築」「deploy」みたいな感じで、AIがワークフローの中の各機能をnpm runでコマンド実行できるように実装してくれていたので個別実行しながら進捗を確認しやすかった。 はてブしたコンテンツの音声ファイル化は自動化できるならした方が楽だとは思いつつ、DB必要だしFFmpegも必要だし定期実行するためのschedulerの仕組みがないといけないしサーバの管理がだるいので今回はひとまずローカル環境で運用することにした。月10回くらいの配信頻度になる気がしてるから年間数百円? 自分のはてブした消化しきれないブクマ記事をPodcastにして聴けるようにする仕組みを作った。

24GB RAM + 4CPU + 200GBストレージのLinuxサーバーを無料で手にいれる方法 – Qiita
51

✅ 2つのBlock Volumesストレージ、合計200GB 3,000 OCPU時間
4OCPUを750時間(約1か月)使うと、3,000OCPU時間 18,000GB時間
24GBのメモリを750時間使うと、18,000GB時間 公式サイトには難しく書かれていますが、実質「4CPU + 24GB RAM + 200GBストレージのサーバーを無料で1か月フルに使える」ということです! ※詳しくは公式サイトを参照お願いします。是非この無料枠を活用してみて下さい! (実際にSSHしてサーバ確認してみた結果) Go to list of users who liked Go to list of comments Register as a new user and use Qiita more conveniently Go to list of users who liked Delete article Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? How developers code is here. Guide & Help Contents Official Accounts Our service Company。 OCIのAlways Freeを活用すれば24GB RAM + 4CPU + 200GBストレージを無料で使用できることがわかりました。


Career advice in 2025.
73
Yesterday, the tj-actions repository, a popular tool used with Github Actions was compromised (for more background read one of these two articles). Watching the infrastructure and security engineering teams at Carta respond, it highlighted to me just how much LLMs can’t meaningfully replace many essential roles of software professionals. However, I’m also reading Jennifer Palkha’s Recoding America, which makes an important point: decision-makers can remain irrational longer than you can remain solvent. (Or, in this context, remain employed.) I’ve been thinking about this a lot lately, as I’ve ended up having more “2025 is not much fun”-themed career discussions with prior colleagues navigating the current job market. I’ve tried to pull together my points from those conversations here: Many people who first entered senior roles in 2010-2020 are finding current roles a lot less fun. There are a number of reasons for this. First, managers were generally evaluated in that period based on their ability to hire, retain and motivate teams. The current market doesn’t value those skills particularly highly, but instead prioritizes a different set of skills: working in the details, pushing pace, and navigating the technology transition to foundational models / LLMs. This means many members of the current crop of senior leaders are either worse at the skills they currently need to succeed, or are less motivated by those activities. Either way, they’re having less fun. Similarly, the would-be senior leaders from 2010-2020 era who excelled at working in the details, pushing pace and so on, are viewed as stagnate in their careers so are still finding it difficult to move into senior roles. This means that many folks feel like the current market has left them behind. This is, of course, not universal. It is a general experience that many people are having. Many people are not having this experience. The technology transition to Foundational models / LLMs as a core product and development tool is causing many senior leaders’ hard-earned playbooks to be invalidated. Many companies that were stable, durable market leaders are now in tenuous positions because foundational models threaten to erode their advantage. Whether or not their advantage is truly eroded is uncertain, but it is clear that usefully adopting foundational models into a product requires more than simply shoving an OpenAI/Anthropic API call in somewhere. Instead, you have to figure out how to design with progressive validation, with critical data validated via human-in-the-loop techniques before it is used in a critical workflow. It also requires designing for a rapidly improving toolkit: many workflows that were laughably bad in 2023 work surprisingly well with the latest reasoning models. Effective product design requires architecting for both massive improvement, and no improvement at all, of models in 2026-2027. This is equally true of writing software itself. There’s so much noise about how to write software, and much of it’s clearly propaganda–this blog’s opening anecdote regarding the tj-actions repository prove that expertise remains essential–but parts of it aren’t. I spent a few weeks in the evenings working on a new side project via Cursor in January, and I was surprised at how much my workflow changed even through Cursor itself was far from perfect. Even since then, Claude has advanced from 3.5 to 3.7 with extended thinking. Again, initial application development might easily be radically different in 2027, or it might be largely unchanged after the scaffolding step in complex codebases. (I’m also curious to see if context window limitations drive another flight from monolithic architectures.) Sitting out this transition, when we are relearning how to develop software, feels like a high risk proposition. Your well-honed skills in team development are already devalued today relative to three years ago, and now your other skills are at risk of being devalued as well. Valuations and funding are relatively less accessible to non-AI companies than they were three years ago. Certainly elite companies are doing alright, whether or not they have a clear AI angle, but the cutoff for remaining elite has risen. Simultaneously, the public markets are challenged, which means less willingness for both individuals and companies to purchase products, which slows revenue growth, further challenging valuations and funding. The consequence of this if you’re at a private, non-AI company, is that you’re likely to hire less, promote less, see less movement in pay bands, and experience a less predictable path to liquidity. It also means fewer open roles at other companies, so there’s more competition when attempting to trade up into a larger, higher compensated role at another company. The major exception to this is joining an AI company, but generally those companies are in extremely competitive markets and are priced more appropriately for investors managing a basket of investments than for employees trying to deliver a predictable return. If you join one of these companies today, you’re probably joining a bit late to experience a big pop, your equity might go to zero, and you’ll be working extremely hard for the next five to seven years. This is the classic startup contract, but not necessarily the contract that folks have expected over the past decade as maximum compensation has generally come from joining a later-stage company or member of the Magnificent Seven. As companies respond to the reduced valuations and funding, they are pushing their teams harder to find growth with their existing team. In the right environment, this can be motivating, but people may have opted into to a more relaxed experience that has become markedly less relaxed without their consent. If you pull all those things together, you’re essentially in a market where profit and pace are fixed, and you have to figure out how you personally want to optimize between people, prestige and learning. Whereas a few years ago, I think these variables were much more decoupled, that is not what I hear from folks today, even if their jobs were quite cozy a few years ago. Going a bit further, I know folks who are good at their jobs, and have been struggling to find something meaningful for six-plus months. I know folks who are exceptionally strong candidates, who can find reasonably good jobs, but even they are finding that the sorts of jobs they want simply don’t exist right now. I know folks who are strong candidates but with some oddities in their profile, maybe too many short stints, who are now being filtered out because hiring managers need some way to filter through the higher volume of candidates. I can’t give advice on what you should do, but if you’re finding this job market difficult, it’s certainly not personal. My sense is that’s basically the experience that everyone is having when searching for new roles right now. If you are in a role today that’s frustrating you, my advice is to try harder than usual to find a way to make it a rewarding experience, even if it’s not perfect. I also wouldn’t personally try to sit this cycle out unless you’re comfortable with a small risk that reentry is quite difficult: I think it’s more likely that the ecosystem is meaningfully different in five years than that it’s largely unchanged. Altogether, this hasn’t really been the advice that anyone wanted when they chatted
with me, but it seems to generally have resonated with them as a realistic appraisal
of the current markets. Hopefully there’s something useful for you in here as well. Hi folks. I'm Will Larson.If you're looking to reach out to me, here are ways I help.
If you'd like to get a email from me, subscribe to my weekly newsletter. I wrote
An Elegant Puzzle,
Staff Engineer, and
The Engineering Executive's Primer. Popular Recent Related。

はてな人力検索をもっと盛り上げるのはどうしたらいいのでしょうか はてな発祥の地なのでもっと盛り上がって欲しいです。…
9

その時代に置いて、求められる人力解答サイトとはどういうものなのか、どういう形式、システムにすればこの先生き残ることができるのか、そういうことを一緒に考えてもらえないでしょうか? ログインして回答する id:orangestar さんもご存じの通り、以前の人力検索が盛り上がってたのは、 という理由から、テック系の質問・回答がしやすく、そういった質問者・回答者が集まってきたというコミュニティの力によるものです。 Chrome Extension を作成して、ブックマークコメントを非表示にしているサイトのブックマークページに人力検索への誘導を付け、「このページに対してどう思いますか?」のような質問を投稿できるようにする。 — 個人的には、増田大喜利や三大増田などはここでやってもらえばいいのに、とは思いますが、増田には増田コミュニティがあり、とても太刀打ちできませんから、何らかのインセンティブ(たとえば**質問者**にスターを撒くなど)を設定して誘引するしかないのではないかな、と思います。


プレゼン資料が見違える!AI図解ツールNapkin AIの基本と実践的な使い方完全版 | SIOS Tech. Lab
4
CATEGORY : TAGS : どのAIが最強?最適なAIモデルを探せる「天秤AI」の紹介 PostmanのAIエージェントPostbotが便利! 【9/20無料開催】Azure OpenAI ServiceによるRAGハンズオン 〜独自データを用いた生成AIの利活用を学ぶ〜初級編(第2回) AOAI:Gpt-4oでJSON出力に失敗する対症療法 Dify入門ガイド:GAS × Difyを使って10分で作るAI LINE BOT! GitHub Copilotと一緒にTDDしてみた 2022年入社で主にフロントエンドの業務でTailwindと遊ぶ日々。プレゼン資料の図解などで使用することができる、ちょっとおしゃれな図を生成してくれるのですごく助かります。ですが、SVGでエクスポートすることができるためFigma上で描画した情報を使用することができます。

JR東海、AIがさばく「年6万件超」顧客相談 200時間削減 – 日本経済新聞
16
春割ですべての記事が読み放題有料会員が2カ月無料 日経の記事利用サービスについて 企業での記事共有や会議資料への転載・複製、注文印刷などをご希望の方は、リンク先をご覧ください。 残り1171文字 春割ですべての記事が読み放題有料会員が2カ月無料 全文表示で読む 有料登録すると続きをお読みいただけます。 こちらもおすすめ(自動検索) 関連企業・業界 関連キーワード 新着 注目 ビジネス ライフスタイル 新着 注目 ビジネス ライフスタイル 新着 注目 ビジネス ライフスタイル 権限不足のため、フォローできません 日本経済新聞の編集者が選んだ押さえておきたい「ニュース5本」をお届けします。

AWS設計プロンプト
363
本アーキテクチャは、99.9%以上の可用性とRPO 30分・RTO 2時間を満たすためにマルチAZ構成を基本とし、セキュリティ面では個人情報保護法や医療情報の取り扱いに準拠するための暗号化・アクセス制御を重点的に考慮しています。 ※以下を全量使用すると量が多いので、該当箇所のみの抜粋を推奨 以下、chatgptの出力例 以下に示すアーキテクチャ提案は、AWS Well-Architected Frameworkの5つの柱(運用上の優秀性、セキュリティ、信頼性、パフォーマンス効率、コスト最適化)に基づき、ビジネス要件・非機能要件・技術的制約・予算制約を踏まえて詳細に設計しています。シンプルかつ網羅的なAWS設計を生成するAIプロンプトの核心は: 構造化された出力フォーマット:設計書の章立てと各セクションの説明内容を明確に指定
具体的なパラメータ要求:抽象的な説明ではなく、実装に使える具体的な設定値を求める
選定理由の明確化:「なぜその選択をしたのか」の説明を求める
代替案との比較:検討した代替オプションとの比較を含める
Well-Architectedの原則適用:AWSのベストプラクティスに基づく設計を促す このアプローチを活用すれば、AIの力を借りつつも、実装に直結する高品質なAWS設計書を効率的に作成できます。

AMDが春の新製品発売イベントを秋葉原で開催! 在庫切れを指摘されるも、売れることに慣れてないので……の一言でみんな納得 (1/2)
9
Radeon RX 9070 XTが2%ほど性能が低いが、ほぼ同じパフォーマンスを発揮しているといえる ただし、競合製品よりRadeon RX 9070シリーズはコストパフォーマンスに優れているとコーハン氏が説明すると、会場からは拍手が起きた フレーム生成技術の最新バージョンとなるAFMF 2.1を近日公開すると発表した 前へ
1
2
次へ ツイートする カテゴリートップへ デジタル デジタル 1 デジタル 2024年08月31日更新 2 デジタル 2024年08月08日更新 3 デジタル 2024年06月23日更新 4 sponsored 2024年08月30日更新 5 デジタル 2024年08月14日更新 デジタル 2025年03月11日更新 sponsored 2025年03月09日更新 デジタル 2025年03月05日更新 sponsored 2025年02月17日更新 sponsored 2025年01月29日更新 2024年09月28日 2024年09月14日 2024年08月30日 2024年08月24日 表示形式: PC ⁄ スマホ。このページの本文へ 前へ
1
2
次へ 2025年03月16日 18時00分更新 文● ドリル北村/ASCII AMD主催のイベント「春の新製品発売イベント~チームAMD 大集合スペシャル~」がLIFORK AKIHABARA IIで開催された。 LIFORK AKIHABARA IIで開催された「春の新製品発売イベント~チームAMD 大集合スペシャル~」 ステージセッションの司会進行は、グラビアアイドルの鈴木 咲さんと、日本AMDの佐藤 美明氏 最初のステージセッションでは、日本AMDの佐藤氏がAMD製品について解説するのかと思いきや、AMD本社プロダクトチームのコーハン氏がサプライズゲストとして登壇。

心に灯を、過去に​感謝を、​​​​​​​未来に花束を。​
4
SpeakerDeck Copyright © 2025 Speaker Deck, LLC. All slide content and descriptions are owned by their creators.。2025/03/15 スクラムフェス神奈川のキーノートで講演した内容です。

プラクティスの名前は言わない方がいい / Not to mention the name of the practice
4
2025/3/15に開催された
サクラサク 若手エンジニアふんわりLTxTechBull LT DAY
で発表した資料です! https://wakate-funwari-study.connpass.com/event/346186/ SpeakerDeck Copyright © 2025 Speaker Deck, LLC. All slide content and descriptions are owned by their creators.。

無料で「セキュリティのプロ」を目指せる“オンライン学習コース”5選
7
Windows 10「なぜか遅い」はあれが原因だった? 「押し付けがましい広告」が配信されたとき、消費者はどう感じるか消費者は個人データに依存した広告よりも、記事などのコンテンツの文脈に沿っている広告… SNS発信のベストな時間帯(2025年版) InstagramとFacebook、TikTokでどう違う?Hootsuiteが2025年版のソーシャルメディア最適投稿時間を公開。 専門的なセキュリティ講座で知られるEscal Institute of Advanced Technologies(SANS Instituteの名称で事業展開)は、初心者向けの無料セキュリティトレーニングプログラムも提供している。 Hack The Boxは攻撃者目線のセキュリティに特化しており、攻撃をシミュレーションできるトレーニングコースを提供している。

ガバメントクラウドにおけるネットワーク接続概要(省庁編) – Qiita
7
国の行政機関においてはガバメントクラウドでの一般ユーザー・各府省拠点からの接続やシステム間連携の接続はセキュリティが十分担保された上でインターネット経由での接続を基本とし、同一CSP間のシステム連携は、CSPサービスの利用を検討すること。 クラウドサービスを適切かつ効果的に活用した国又は地方公共団体の事務の実施に関連する情報システムの効果的かつ効率的 な整備及び運用を推進するため、内閣総理大臣が国と国以外の者が共同してクラウドサービスを利用することができるようにするため必要な措置を講じなければならないこととするとともに、当該共同利用が行われる際の金銭の保管に関する規定を整備するという法律です。 政府情報システムにおけるクラウドサービスの適切な利用に関わる基本方針(抜粋)
旧世代のクラウド利用ではなく、今日のスマートなクラウド利用を 促進する目的は、システム開発の短期間化や継続的な開発・改善の実現等の要素もあるが、主としてコスト削減とセキュリティの向上にある。

【Xiaomi 14T】コスパ最強スマホ
33
安いスマホが欲しいけどゲームがや処理性能が速いスマホが欲しいと思ったことはある人は多いと思う。 ということで、2年ぐらいでも気軽に買い替えられるであろう5万~8万円で買えるおすすめスマホ3選紹介していく。 ということで、ゲームもできて性能も良いがとんでも無く安いスマホを2選紹介する [sc name="fukidasi"][/sc] この記事の見出し(クリックで該当箇所に飛ぶ) スマホの価格帯の目安 現在はスマホの種類が多いし、価格帯もまちまちだから、スマホの値段帯べつでどういう傾向のものが多いか …

イヤホン ガジェット
2025/3/1

【2025年初旬】1万円以下おすすめイヤホン4選【ワイヤレスイヤホン】

今やイヤホンといえばという存在にまで普及したワイヤレスイヤホン。


Gemini Code Assist for GitHubでコードレビューまでしてくれるようなので試してみました – Qiita
7
どこかで機会があれば掘ろうかな Go to list of users who liked Go to list of comments Register as a new user and use Qiita more conveniently Go to list of users who liked Delete article Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? How developers code is here. Guide & Help Contents Official Accounts Our service Company。Go to list of users who liked Delete article Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? 先日Googleの主催するModern App Summit ’25に参加しました。ここが商用の開発だったらどこまで指摘が出るのかは楽しみ Gemini Code AssistをGithub連携させるとPR時にサマリーやコードレビューまでしてくれることは確認できました。

「データのつながりを活かす技術」を読む ~第5章 ノード埋め込み ②DeepWalk・node2vec~ – jiku log
20

\begin{align}
\pi_{v_{t-1} v_t} =
\begin{cases}
\frac{1}{p} & \text{if $(v_{t-1}, v_t) \in E$ and $d(v_{t-2}, v_t) = 0$, } \\
1 & \text{if $(v_{t-1}, v_t) \in E$ and $d(v_{t-2}, v_t) = 1$, } \\
\frac{1}{q} & \text{if $(v_{t-1}, v_t) \in E$ and $d(v_{t-2}, v_t) = 2$, } \\
0 & \text{otherwise} \\
\end{cases}
\end{align} ただし,はノードの間の距離,はそれぞれ始点への戻りにくさ・離れにくさを制御するパラメータである。
\begin{align}
\pi_{v_{t-1} v_t} =
\begin{cases}
2 & \text{if $(v_{t-1}, v_t) \in E$ and $d(v_{t-2}, v_t) = 0$, } \\
1 & \text{if $(v_{t-1}, v_t) \in E$ and $d(v_{t-2}, v_t) = 1$, } \\
1 & \text{if $(v_{t-1}, v_t) \in E$ and $d(v_{t-2}, v_t) = 2$, } \\
0 & \text{otherwise} \\
\end{cases}
\end{align} この遷移では,との距離が0に等しいノードに遷移しやすいといえる。
\begin{align}
\pi_{v_{t-1} v_t} =
\begin{cases}
1 & \text{if $(v_{t-1}, v_t) \in E$ and $d(v_{t-2}, v_t) = 0$, } \\
1 & \text{if $(v_{t-1}, v_t) \in E$ and $d(v_{t-2}, v_t) = 1$, } \\
2 & \text{if $(v_{t-1}, v_t) \in E$ and $d(v_{t-2}, v_t) = 2$, } \\
0 & \text{otherwise} \\
\end{cases}
\end{align} この遷移では,との距離が2に等しいノードに遷移しやすいといえる。


スラド、受け入れ先募集が打ち切りとなりサービス終了を発表
7
業界動向 クラウド
AWS / Azure / Google Cloud
クラウドネイティブ / サーバレス
クラウドのシェア / クラウドの障害 コンテナ型仮想化 プログラミング言語
JavaScript / Java / .NET
WebAssembly / Web標準
開発ツール / テスト・品質 アジャイル開発 / スクラム / DevOps データベース / 機械学習・AI
RDB / NoSQL ネットワーク / セキュリティ
HTTP / QUIC OS / Windows / Linux / 仮想化
サーバ / ストレージ / ハードウェア ITエンジニアの給与・年収 / 働き方 殿堂入り / おもしろ / 編集後記 全てのタグを見る Junichi Niino(jniino)
IT系の雑誌編集者、オンラインメディア発行人を経て独立。 Publickeyが複数の情報源から得ていた情報では、アピリッツは2022年頃にはサーバ費用がかさんで赤字が続くスラドとOSDN.netを売却すべくIT系のメディアなど複数の企業に打診をしており、いずれも良い返事がもらえませんでした。 その後、受け入れ先の模索およびサーバの費用などの算定が行われることになっていましたが、更新終了から1年が経過した2025年2月になっても特に進捗がないことが発表されていました。

The JavaScript Oxidation Compiler
22
Appearance Oxlint Beta Oxc Minifier Alpha Oxlint v0.10 Release Oxc Transformer Alpha Oxlint Import Plugin Alpha Oxlint General Availability BoshenProject Lead CamMember We are thrilled to announce that Oxlint is now in beta release, after more than a year of development by the community! This milestone represents a significant step forward in feature completeness, performance, and stability. At this stage, Oxlint can be used to fully replace ESLint in small to medium projects. For larger projects, our advice is to turn off ESLint rules via eslint-plugin-oxlint, and run Oxlint before ESLint in your local or CI setup for a quicker feedback loop. To test Oxlint in your codebase, you can use the package manager of your choice at the root of your codebase: For more detailed instructions on how to use Oxlint and integrate it with your project or editor, check out the installation guide. We have focused on making Oxlint more feature complete, supporting many of the most commonly used ESLint rules and plugins, but we have also made Oxlint much faster as well. The first generally available (GA) release of Oxlint had 205 rules in total, with 70 of those being enabled by default. This beta release now includes 502 rules in total, with 99 of those being enabled by default (a 41% increase in the number of rules enabled by default). Despite adding many new rules that are enabled by default, Oxlint is now much faster than it ever has been. Here are some benchmarks on some popular repositories: One of the most commonly requested features for Oxlint is support for existing custom ESLint plugins. We have been busy working on the prerequisites for this feature, and to enable fast linter plugins written in JavaScript. We hope to have this feature available for the next major release, and more information to share about it in the near future. We also are planning to continue improving the IDE/editor integrations, with improved support for VSCode, Zed, coc.nvim, and IntelliJ plugins. Oxlint beta would not have been possible without the over 200 contributors to the project. Special thanks goes to: Released under the MIT License. Copyright © 2023-present Boshen & Oxc Contributors。

Railsで使うビューテンプレートエンジンのベンチマーク2025 – おもしろwebサービス開発日記
12
willnet/template-engine-benchmarks willnet
2025-03-16 18:19 べんりで楽しいwebサービスをたくさん作りたい 引用をストックしました 引用するにはまずログインしてください 引用をストックできませんでした。パフォーマンスの観点だけをとりあげたとき、約5年前に パーフェクトRuby on Rails【増補改訂版】 を書いたときには、速い実装を選べば速度差は特にないという認識でした。 当時のベンチマーク結果 2025年でも結果は変わらないかな?と思い新しくベンチマークを取ってみた結果が次のとおりです。

AIで一番星はてのミュージックビデオを作った
9
技術の進歩を待つために動画生成 AI からしばらく離れていたが、2024年11月末には Gen-3 Alpha Turbo で再びはてのちゃんに目を開けさせる動画を生成するなどして、時々進歩を確認していた。 はてのちゃんを動かして音楽がついた短い動画にまとめるというアイディアは2023年11月頃には既に構想・試行していたが、今回主に最近の動画生成 AI の進歩のおかげで実現できた。動画の概要欄でも述べた通り、この MV で使われている楽曲やはてのちゃんの画像・動画はすべて AI で生成したものである。

【プロンプトも公開】Zoom 会議が自動で議事録に!文字起こし × 生成 AI で業務大幅削減
42
そういった課題を解決するべく、Zoom の文字起こし作成をフックに、生成 AI を活用して要約を作成するワークフローを社内運用しているので、その仕組みについて紹介いたします! Zoom で録画し、文字起こしテキストが自動的に以下画像のように指定したフォーマットで Notion に出力されるようにしています。 情報の正確性と共有の円滑化
タイムスタンプ付きの詳細な記録と生成 AI による要約で、会議内容が漏れなく整理され、社内での情報共有がスムーズになりました。(この記事では Gemini を使用した実装例で紹介しています) 処理を継続する場合、生成 AI でマークダウン形式の議事録を生成します。

AIは「思考している」のか、それとも「思考しているよう見せかけている」だけなのか?
272
・関連記事
「推論モデルがユーザーにバレないように不正する現象」の検出手法をOpenAIが開発 – GIGAZINE

学生に対して「AIを禁止」するのではなく「AIスキルと批判的思考を鍛える」ためエストニア政府がOpenAIやAnthropicと提携してプロジェクト「AI Leap」をスタート – GIGAZINE

AIにプログラミングさせる時に幻覚が発生しても大した問題にはならないという主張 – GIGAZINE

AIはチェスで負けそうになるとチートする – GIGAZINE

OpenAIが新モデル「o1-preview」の思考内容を出力させようとしたユーザーに警告 – GIGAZINE

なぜ大規模言語モデル(LLM)はだまされやすいのか? – GIGAZINE ・関連コンテンツ << 次の記事 中国がアメリカを上回ってロボット産業で優位性を確保できる要因とは? 前の記事 >> 日本最長のつり橋からバンジージャンプするところを撮影に行ったら強風でイベントが途中で終わっちゃったよレポート 2025年03月15日 21時00分00秒 in ネットサービス, Posted by log1e_dh You can read the machine translated English article Does AI 'think' or does it just 'appear …. 直近24時間(1時間ごとに更新。

From OpenAI to DeepSeek, companies say AI can “reason” now. Is it true? | Vox

OpenAI o1やDeepSeek r1などの大規模言語モデルは、大きな問題を小さな問題に分解し段階的に解決する「思考連鎖推論」によって、複雑な論理的思考力を発揮しています。

OpenAIが新モデル「o1-preview」の思考内容を出力させようとしたユーザーに警告 – GIGAZINE ChatGPTのような古いモデルは、人間が書いた文章から学習してそれを模倣した文章を出力するのに対し、OpenAI o1のような新しいモデルは、人間が文章を書くためのプロセスを学習しており、より自然で思考に基づいたような文章を出力できます。


TypeScript で MCP サーバーを実装し、Claude Desktop から利用する
224
リソース:MCP サーバーがクライアントに提供するデータ(ファイル内容、データベースレコードなど) ツール:外部システムとのインタラクションを可能にするアクション(ファイルの操作、計算の実行など) プロンプト:特定のタスク実行のためのプロンプト(コードレビューの方法など) MCP サーバーは上記の機能を name, description, arguments などのプロパティを持つ JSON オブジェクトとして定義します。例えば Google Calendar の MCP サーバーを利用すれば、旅行の計画を立てる際に既存の予定を考慮した計画を提案し、さらにその新しい予定を直接 Google Calendar に登録することも可能になるでしょう。 Note GitHub の MCP サーバーを利用するには、アクセスしたいリポジトリの権限を持つ Personal Access Token を事前に作成し、<YOUR_TOKEN> の部分に置き換えてください。

全ビジネスマンが使えるClaude3.7 sonnet と draw.ioで始める図の作成。|遠藤巧巳 – JapanMarketing合同会社
1177
3.7sonnetで「アジャイルの開発サイクルをdrawioでわかりやすく表現するためのxmlを書いて」でdrawioこちらも表現できたw🙌 https://t.co/lVhpEP78fR pic.twitter.com/t2acT96pZZ 私のXでも多くの方にいいね、リポストされました。広告で知るところから、契約して、満足度が高まり、広げるまでの全て [プロンプト]draw.ioで使えるXMLを書いてSlackのチャットボットでメッセージが送られる画面イメージ。今回チャットボットを作るため、顧客に提案資料として掲載したい [プロンプト]draw.ioで使えるXMLを書いて。

MCP Servers
41
The largest collection of MCP Servers. An MCP server implementation that provides a tool for dynamic and reflective problem-solving through a structured thinking process. Web content fetching and conversion for efficient LLM usage AI image generation using various models Secure file operations with configurable access controls Web and local search using Brave's Search API Repository management, file operations, and GitHub API integration summarize chat message MCP server for interacting with Neon Management API and databases It's like v0 but in your Cursor/WindSurf/Cline. 21st dev Magic MCP server for working with your frontend like Magic Channel management and messaging capabilities Browser automation and web scraping New version of cherry studio is supporting MCP
Release v1.1.1 ?? CherryHQ/cherry-studio
Version 1.1.1
HyperChat is a Chat client that strives for openness, utilizing APIs from various LLMs to achieve the best Chat experience, as well as implementing productivity tools through the MCP protocol. ⏩ Create, share, and use custom AI code assistants with our open-source IDE extensions and hub of models, rules, prompts, docs, and other building blocks Roo Code (prev. Roo Cline) gives you a whole dev team of AI agents in your code editor. 5ire is a cross-platform desktop AI assistant, MCP client. It compatible with major service providers, supports local knowledge base and tools via model context protocol servers . Code at the speed of thought – Zed is a high-performance, multiplayer code editor from the creators of Atom and Tree-sitter. ChatMCP is an AI chat client implementing the Model Context Protocol (MCP). Autonomous coding agent right in your IDE, capable of creating/editing files, executing commands, using the browser, and more with your permission every step of the way. Frequently Asked Questions about MCP Servers MCP is an open-source protocol developed by Anthropic that enables AI systems like Claude to securely connect with various data sources. It provides a universal standard for AI assistants to access external data, tools, and prompts through a client-server architecture. MCP Servers are systems that provide context, tools, and prompts to AI clients. They can expose data sources like files, documents, databases, and API integrations, allowing AI assistants to access real-time information in a secure way. MCP Servers work through a simple client-server architecture. They expose data and tools through a standardized protocol, maintaining secure 1:1 connections with clients inside host applications like Claude Desktop. MCP Servers can share resources (files, docs, data), expose tools (API integrations, actions), and provide prompts (templated interactions). They control their own resources and maintain clear system boundaries for security. Claude can connect to MCP servers to access external data sources and tools, enhancing its capabilities with real-time information. Currently, this works with local MCP servers, with enterprise remote server support coming soon. Yes, security is built into the MCP protocol. Servers control their own resources, there's no need to share API keys with LLM providers, and the system maintains clear boundaries. Each server manages its own authentication and access control. mcp.so is a community-driven platform that collects and organizes third-party MCP Servers. It serves as a central directory where users can discover, share, and learn about various MCP Servers available for AI applications. You can submit your MCP Server by creating a new issue in our GitHub repository. Click the 'Submit' button in the navigation bar or visit our GitHub issues page directly. Please provide details about your server including its name, description, features, and connection information. MCP Servers The largest collection of MCP Servers, featuring Awesome MCP Servers and Claude MCP integration. Resources Community Friends © 2025 • mcp.so All rights reserved.build with ShipAny。

Momochidori | Adobe Fonts
58
Momochidori is an Adobe Originals typeface with humorous and retro-looking letter forms designed by Ryoko Nishizuka, Adobeʼs Principal Designer. The three aspect ratios: Condensed, square, and Wide, each with five stroke weight variations, offer groundbreaking support for both horizontal and vertical writing modes. This font family does not contain Variable Fonts, but instead has 15 separate variations. (The Momochidori variable font is also available, from which you can select font instances from continuous ranges of stroke weight and aspect ratio.). The Adobe Originals program started in 1989 as an in-house type foundry at Adobe, brought together to create original typefaces of exemplary design quality, technical fidelity, and aesthetic longevity. Today the Type team’s mission is to make sophisticated and even experimental typefaces that explore the possibilities of design and technology. Typefaces released as Adobe Originals are the result of years of work and study, regarded as industry standards for the ambition and quality of their development. Visit foundry page You may encounter slight variations in the name of this font, depending on where you use it. Here’s what to look for. In application font menus, this font will display: To use this font on your website, use the following CSS: Fonts in the Adobe Fonts library include support for many different languages, OpenType features, and typographic styles. Learn more about language support Learn more about OpenType features Language: © 2025 Adobe. All rights reserved.。

エンジニア同士の図解コミュニケーション技術 – Qiita
173
スペース管理: 参加型図解: 保存のテクニック: 少人数での打ち合わせやペアプログラミング時のノート共有: A3用紙の活用:広いスペースで全体像を把握しやすく T字型レイアウト:上部に共通認識、左右に各自の考えを記入 スケッチノートの技法: ノートの共有回転:互いのノートを90度回転させて相手から見やすい向きで共有 図解の質を高めるための基本原則: エンジニアのコミュニケーションで頻出する図解パターン: 階層構造:親子関係、包含関係の表現に最適 フローチャート:プロセスやアルゴリズムの表現に ER図:データ構造やリレーションの説明に マインドマップ:アイデア出しや関連概念の整理に 四象限マトリックス:優先度や分類の整理に 情報の重要度を視覚的に表現するテクニック: 図解は複雑さを減らすためのものであるため、シンプルさが重要: チームメンバー間の知識や理解の差を埋めるための図解テクニック: 問題状況:
チーム内で新規APIの仕様について認識の食い違いがあり、実装が進まなかった 図解による解決: 結果:
30分の図解セッションで2日間の議論が解決し、実装の方向性が一致 問題状況:
分散チームで既存システムのアーキテクチャ刷新を検討中、各自の描くビジョンにズレがあった 図解による解決: 結果:
チーム全体の方向性が統一され、具体的なマイルストーンが決定 問題状況:
新しく参加したエンジニアに複雑なレガシーシステムの全体像を効率よく伝える必要があった 図解による解決: 結果:
通常3ヶ月かかる習熟が1ヶ月で達成され、新メンバーが早期に貢献開始 図解コミュニケーションは、エンジニア同士の認識のギャップを埋め、複雑な概念を効率的に共有するための強力なツールです。Go to list of users who liked Delete article Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? エンジニアにとって、複雑な概念や構造を正確かつ効率的に伝えることは日常業務の重要な部分です。 Go to list of users who liked Go to list of comments Register as a new user and use Qiita more conveniently Go to list of users who liked Delete article Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? How developers code is here. Guide & Help Contents Official Accounts Our service Company。

iPhone 16eで「Bluetooth接続したオーディオ機器の音声が途切れる問題」が多数報告される
15
・関連記事
iPhone 16eが2025年2月28日に発売、価格は税込99800円から&A18チップ搭載でApple Intelligenceに対応 – GIGAZINE

税込10万円以下の廉価版モデル「iPhone 16e」速攻フォトレビュー、歴代iPhone SEとサイズや重さも比較してみた – GIGAZINE

「iPhone 16e」の充電に必要な電源アダプタは?バッテリーの寿命・充電時間・ベンチマーク結果をチェック – GIGAZINE

48メガピクセルカメラ1つ搭載のiPhone 16eでどんな写真が撮れるのか?いろいろ撮影してみた – GIGAZINE

Appleが「iPhone 16eがMagSafe非対応なのは独自モデムのC1のせい」というウワサを否定 – GIGAZINE ・関連コンテンツ << 次の記事 日本最長420mのつり橋を歩いて渡ったりバンジージャンプしたりできる「GRAVITATE OSAKA」に一足先に行ってきたよレポート 前の記事 >> 「アルツハイマー病の患者は呼吸の回数が多い」という研究結果、アルツハイマー病の早期発見につながる可能性も 2025年03月15日 10時00分00秒 in モバイル,   ソフトウェア, Posted by logu_ii You can read the machine translated English article Many reports of 'Bluetooth audio interru…. 直近24時間(1時間ごとに更新。

iPhone 16e Has a Bluetooth Audio Problem – MacRumors
https://www.macrumors.com/2025/03/13/iphone-16e-bluetooth-audio-problem/

Some iPhone 16e owners are reporting Bluetooth audio issues that could be an iOS problem | TechRadar
https://www.techradar.com/phones/some-iphone-16e-owners-are-reporting-bluetooth-audio-issues-that-could-be-an-ios-problem

iPhone 16e users report Bluetooth audio problems
https://appleinsider.com/articles/25/03/14/iphone-16e-users-report-bluetooth-audio-problems

現地時間の2025年3月5日、iPhone 16eのBluetoothオーディオが途切れる問題がApple公式のサポートフォーラム上で報告されました。なので、GIGAZINEの物理的なサーバーたちを、たった1円でも良いので読者の皆さまに支援してもらえればとっても助かります!今すぐ1回払いの寄付は上のボタンから、毎月寄付はこちらのリンク先から!

・これまでGIGAZINEを支援してくれたメンバーのリスト ユーザー名 パスワード – パスワードの再発行 Appleが2025年2月28日に発売した「iPhone 16e」で、BluetoothスピーカーやBluetoothイヤホンに接続した際に、再生される音声が定期的に途切れる問題が多数報告されています。


GitHub – xpipe-io/xpipe: Your entire server infrastructure at your fingertips
15
We read every piece of feedback, and take your input very seriously. To see all available qualifiers, see our documentation. Access your entire server infrastructure from your local desktop XPipe is a new type of shell connection hub and remote file manager that allows you to access your entire server infrastructure from your local machine. It works on top of your installed command-line programs and does not require any setup on your remote systems. So if you normally use CLI tools like ssh, docker, kubectl, etc. to connect to your servers, you can just use XPipe on top of that. XPipe fully integrates with your tools such as your favourite text/code editors, terminals, shells, command-line tools and more. The platform is designed to be extensible, allowing anyone to add easily support for more tools or to implement custom functionality through a modular extension system. It currently supports: Note that this is a desktop application that should be run on your local desktop workstation, not on any server or containers. It will be able to connect to your server infrastructure from there. Installers are the easiest way to get started and come with an optional automatic update functionality: If you don't like installers, you can also use a portable version that is packaged as an archive: Alternatively, you can also use the following package managers: Installers are the easiest way to get started and come with an optional automatic update functionality: If you don't like installers, you can also use a portable version that is packaged as an archive: Alternatively, you can also use Homebrew to install XPipe with brew install –cask xpipe-io/tap/xpipe. You can install XPipe the fastest by pasting the installation command into your terminal. This will perform the setup automatically.
The script supports installation via apt, dnf, yum, zypper, rpm, and pacman on Linux: Of course, there are also other installation methods available. The following debian installers are available: Note that you should use apt to install the package with sudo apt install <file> as other package managers, for example dpkg,
are not able to resolve and install any dependency packages. The rpm releases are signed with the GPG key https://xpipe.io/signatures/crschnick.asc.
You can import it via rpm –import https://xpipe.io/signatures/crschnick.asc to allow your rpm-based package manager to verify the release signature. The following rpm installers are available: The same applies here, you should use a package manager that supports resolving and installing required dependencies if needed. There is an official AUR package available that you can either install manually or via an AUR helper such as with yay -S xpipe. There's an official xpipe nixpkg available that you can install with nix-env -iA nixos.xpipe. This one is however not always up to date. There is also a custom repository that contains the latest up-to-date releases: https://github.com/xpipe-io/nixpkg.
You can install XPipe by following the instructions in the linked repository. In case you prefer to use an archive version that you can extract anywhere, you can use these: Alternatively, there are also AppImages available: Note that the portable version assumes that you have some basic packages for graphical systems already installed
as it is not a perfect standalone version. It should however run on most systems. XPipe is a desktop application first and foremost. It requires a full desktop environment to function with various installed applications such as terminals, editors, shells, CLI tools, and more. So there is no true web-based interface for XPipe. Since it might make sense however to access your XPipe environment from the web, there is also a so-called webtop docker container image for XPipe. XPipe Webtop is a web-based desktop environment that can be run in a container and accessed from a browser via KasmVNC. The desktop environment comes with XPipe and various terminals and editors preinstalled and configured. XPipe follows an open core model, which essentially means that the main application is open source while certain other components are not. This mainly concerns the features only available in the homelab/professional plan and the shell handling library implementation. Furthermore, some CI pipelines and tests that run on private servers are also not included in the open repository. The distributed XPipe application consists out of two parts: Additional features are available in the homelab/professional plan . For more details see https://xpipe.io/pricing.
If your enterprise puts great emphasis on having access to the full source code, there are also full source-available enterprise options available. You can find the documentation at https://docs.xpipe.io. Access your entire server infrastructure from your local desktop。

無料で配信者向けのパタパタ時計・カウントダウンタイマー・ストップウォッチを簡単に表示するOBS用プラグイン「Flip Clock」
13
・関連記事
OBS上でウェブカメラの背景を自動で消してくれる無料プラグイン「obs-backgroundremoval」を使ってみた – GIGAZINE

配信ソフト「OBS」上でアプリごとに音声のオン・オフや音量調整が可能になるプラグイン「win-capture-audio」を導入してみた – GIGAZINE

ライブ配信ソフト「OBS Studio」でNVIDIAのノイズ除去フィルタが利用可能に、実際に使ってみるとこんな感じ – GIGAZINE

無料でオープンソースのライブ配信ソフト「OBS」で画面を録画&ビデオ会議で画面を簡単にキャプチャーする方法 – GIGAZINE

OBSに追加された「Hybrid MP4」は通常のMP4と何が違うのか? – GIGAZINE ・関連コンテンツ << 次の記事 日本最長のつり橋からバンジージャンプするところを撮影に行ったら強風でイベントが途中で終わっちゃったよレポート 前の記事 >> 心臓発作の患者の命を救った医師が「自分も心臓発作を起こしている」と気づいた事例 2025年03月15日 19時00分00秒 in レビュー,   ソフトウェア,   動画, Posted by log1i_yk You can read the machine translated English article 'Flip Clock' is a free plug-in for OBS t…. 直近24時間(1時間ごとに更新。

GitHub – PeterCang/flip-clock: Enhance your OBS streams with our versatile Clock Plugin! Display current time with customizable formats (AM/PM, seconds), countdowns, or a stopwatch – perfect for keeping your audience on time and engaged.
https://github.com/PeterCang/flip-clock

Flip Clock | OBS Forums
https://obsproject.com/forum/resources/flip-clock.2042/

Flip Clockでどんな時計が画面上に表示されるのかは、以下のムービーを見ると一発でわかります。なので、GIGAZINEの物理的なサーバーたちを、たった1円でも良いので読者の皆さまに支援してもらえればとっても助かります!今すぐ1回払いの寄付は上のボタンから、毎月寄付はこちらのリンク先から!

・これまでGIGAZINEを支援してくれたメンバーのリスト ユーザー名 パスワード – パスワードの再発行 YouTubeやTwitchなどでライブ配信を行う場合、オープンソースのライブ配信ツールのOBSを使えば配信画面のレイアウトを自由にカスタマイズできます。


新宿警察署の代表番号から不審電話詐欺事件を眺めてみる
406
例えば米国では、連邦議会警察(USCP)の電話番号が詐欺目的で偽装表示され、「逮捕状を取り下げるため」などと金銭や個人情報を詐取しようとする事件が報告されています (U.S. Capitol Police Phone Numbers Used in "Caller ID Spoofing" Scam | United States Capitol Police)。 https://rocket-boys.co.jp/security-measures-lab/shinjuku-police-station-spoofed-number-scam-call/ https://whoscall.com/ja/blog/articles/1337-電話スプーフィングの脅威!詐欺対策と効果的な防御法 https://www.kaspersky.co.jp/resource-center/preemptive-safety/phone-number-spoofing 発信者番号スプーフィングとは、電話の発信者番号表示に出る情報を改ざんし、本来とは異なる番号・発信元名を表示させる技術です。 これは海外からVoIP等で発信し、日本国内の電話番号を偽装表示するもので、東洋経済オンラインによれば「存在しない国番号」を使った巧妙な詐欺電話も報じられています(※「+1(200)…」のように本来存在しない番号で偽装する事例 (非通知着信や見知らぬ国際電話「+〇〇」に注意!その危険性と …))。

Gemma 3やQwQなどでローカルLLMがそろそろ使い物になってきた – きしだのHatena
288
LangChainとLangGraphによるRAG・AIエージェント[実践]入門 (エンジニア選書)作者:西見 公宏,吉田 真吾,大嶋 勇樹技術評論社Amazon LangChainとLangGraphによるRAG・AIエージェント[実践]入門 (エンジニア選書) nowokay
2025-03-15 16:47

読者になる 楽しく仲よく
Twitter: きしだൠ @kis プロになるJava―仕事で必要なプログラミングの知識がゼロから身につく最高の指南書作者:きしだ なおき,山本 裕介,杉山 貴章技術評論社Amazon「プロになるJava」関連記事 プロになるJava―仕事で必要なプログラミングの知識がゼロから身につく最高の指南書 nowokayさんは、はてなブログを使っています。GoogleからGemma 3が出たり、AlibabaがQwQを出したりで、27Bや32BでDeepSeek V3の671Bに匹敵すると言っていて、小さいサイズや2bit量子化でも実際結構賢いので、普通の人がもってるPCでもローカルLLMが実用的に使える感じになってきています。

と、ここまで書いたところで27Bの2bit量子化を作ってる人がいたので試してみました。


RailsでCQRS/ESをやってみたきづき
57
さらに、イベント登録とクエリの更新を同じトランザクションで行わないことや、ActiveSupport::Notificationsを活用した同期的なPub/Subの実装方法についても解説されています。ただし、いきなりライブラリを使うのではなく、まずはシンプルな同期処理のスクリプトを作成し、基本的な流れを理解することが推奨されています。 実装の具体例として、「Rails Event Store」を活用する方法が紹介されています。

Amazon Aurora now supports R8g database instances in additional AWS Regions – AWS
7
AWS Graviton4-based R8g database instances are now generally available for Amazon Aurora with PostgreSQL compatibility and Amazon Aurora with MySQL compatibility in Europe (Ireland), Europe (Spain), Europe (Stockholm), Asia Pacific (Mumbai), Asia Pacific (Sydney), Asia Pacific (Tokyo) regions. R8g instances offer larger instance sizes, up to 48xlarge and features an 8:1 ratio of memory to vCPU, and the latest DDR5 memory. Graviton4-based instances provide up to a 40% performance improvement and up to 29% price/performance improvement for on-demand pricing over Graviton3-based instances of equivalent sizes on Amazon Aurora databases, depending on database engine, version, and workload. AWS Graviton4 processors are the latest generation of custom-designed AWS Graviton processors built on the AWS Nitro System. R8g DB instances are available with new 24xlarge and 48xlarge sizes. With these new sizes, R8g DB instances offer up to 192 vCPU, up to 50Gbps enhanced networking bandwidth, and up to 40Gbps of bandwidth to the Amazon Elastic Block Store (Amazon EBS). You can spin up Gravitona4 R8g database instances in the Amazon RDS Management Console or using the AWS CLI. Upgrading a database instance to Graviton4 requires a simple instance type modification. For more details, refer to the Aurora documentation. Amazon Aurora is designed for unparalleled high performance and availability at global scale with full MySQL and PostgreSQL compatibility. It provides built-in security, continuous backups, serverless compute, up to 15 read replicas, automated multi-Region replication, and integrations with other AWS services. To get started with Amazon Aurora, take a look at our getting started page.。

技術を育てる組織・組織を育てる技術 / technology and organization
206
SpeakerDeck Copyright © 2025 Speaker Deck, LLC. All slide content and descriptions are owned by their creators.。技育祭2025春の講演資料です。

1万円のポケットサイズコンピューター登場!プログラミングしよう【PicoCalc kit】
38
ぜひ↓からチャンネル登録をお願いします! シェアする デイリーガジェットをフォローする clockwork, PicoCalc kit
デイリーガジェット編集部 Teclastの格安Android 15タブレット4機種がセール!P30が10,900円ほか【桜·お花見セール】 iPhone 15 Plus中古が80,000円セール!3,500円のスマホ入りガチャもスタート メールアドレスが公開されることはありません。 年間300日アキバをウロつくガジェットメディア デイリーガジェットをフォローする 2025/3/14
UMPC(超小型ノートパソコン), アプリ/プログラミング シェアする ↓でお伝えしたようなユニークなコンピューターを多数リリースしているclockworkから、新たなポケットサイズコンピューター「PicoCalc kit」が登場しました。 デイリーガジェットでは、UMPC(超小型PC)、スマホ、タブレット、レトロPCをはじめとして、商品のレビューやインタビューの動画を、YouTubeに”ほぼ”毎日公開しています。

IO devices and latency — PlanetScale
53
Blog|Engineering Want to learn more about unlimited IOPS w/ Metal, Vitess, horizontal sharding, or Enterprise options? Talk to Solutions Get the RSS feed By Benjamin Dicken | March 13, 2025 Non-volatile storage is a cornerstone of modern computer systems. Every modern photo, email, bank balance, medical record, and other critical pieces of data are kept on digital storage devices, often replicated many times over for added durability. Non-volatile storage, or colloquially just "disk", can store binary data even when the computer it is attached to is powered off. Computers have other forms of volatile storage such as CPU registers, CPU cache, and random-access memory, all of which are faster but require continuous power to function. Here, we're going to cover the history, functionality, and performance of non-volatile storage devices over the history of computing, all using fun and interactive visual elements. This blog is written in celebration of our latest product release: PlanetScale Metal. Metal uses locally attached NVMe drives to run your cloud database, as opposed to the slower and less consistent network-attached storage used by most cloud database providers. This results in a blazing fast queries, low latency, and unlimited IOPS. Check out the docs to learn more. As early as the 1950s, computers were using tape drives for non-volatile digital storage. Tape storage systems have been produced in many form factors over the years, ranging from ones that take up an entire room to small drives that can fit in your pocket, such as the iconic Sony Walkman. A tape Reader is a box containing hardware specifically designed for reading tape cartridges. Tape cartridges are inserted and then unwound which causes the tape to move over the IO Head, which can read and write data. Though tape started being used to store digital information over 70 years ago, it is still in use today for certain applications. A standard LTO tape cartridge has several-hundred meters of 0.5 inch wide tape. The tape has several tracks running along its length, each track being further divided up into many small cells. A single tape cartridge contains many trillions of cells. Each cell can have its magnetic polarization set to up or down, corresponding to a binary 0 or 1. Technically, the magnetic field created by the transition between two cells is what makes the 1 or zero. A long sequence of bits on a tape forms a page of data. In the visualization of the tape reader, we simplify this by showing the tape as a simple sequence of data pages, rather than showing individual bits. When a tape needs to be read, it is loaded into a reader, sometimes by hand and sometimes by robot. The reader then spins the cartridge with its motor and uses the reader head to read off the binary values as the tape passes underneath. Give this a try with the (greatly slowed down) interactive visualization below. You can control the speed of the tape if you'd like it faster or slower. You can also issue read requests and write requests and then monitor how long these take. You'll also be able to see the queue of pending IO operations pop up in the top-left corner. Try issuing a few requests to get a feel for how tape storage works: If you spend enough time with this, you will notice that: Even with modern tape systems, reading data that is far away on a tape can take 10s of seconds, because it may need to spin the tape by hundreds of meters to reach the desired data. Let's compare two more specific, interactive examples to illustrate this further. Say we need to read a total of 4 pages and write an additional 4 pages worth of data. In the first scenario, all 4 pages we need to read are in a neat sequence, and the 4 to write to are immediately after the reads. You can see the IO operations queued up in the white container on the top-left. Go ahead and click the Time IO button to see this in action, and observe the time it takes to complete. As you can see, it takes somewhere around 3-4 seconds. On a real system, with an IO head that can operate much faster and motors that can drive the spools more quickly, it would be much faster. Now consider another scenario where we need to read and write the same number of pages. However, these reads and writes are spread out throughout the tape. Go ahead and click the Time IO button again. That took ~7x longer for the same total number of reads and writes! Imagine if this system was being used to load your social media feed or your email inbox. It might take 10s of seconds or even a full minute to display. This would be totally unacceptable. Though the latency for random reads and writes is poor, tape systems operate quite well when reading or writing data in long sequences. In fact, tape storage still has many such use cases today in the modern tech world. Tape is particularly well-suited for situations where there is a need for massive amounts of storage that does not need to be read frequently, but needs to be safely stored. This is because tape is both cheaper per-gigabyte and has a longer shelf-life than its competition: solid state drives and hard disk drives. For example, CERN has a tape storage data warehouse with over 400 petabytes of data under management. AWS also offers tape archiving as a service. What tape is not well suited for is high-traffic transactional databases. For these and many other high-performance tasks, other storage mediums are needed. The next major breakthrough in storage technology was the hard disk drive. Instead of storing binary data on a tape, we store them on a small circular metal disk known as the Platter. This disk is placed inside of an enclosure with a special read/write head, and spins very fast (7200 RPM is common, for example). Like the tape, this disk is also divided into tracks. However, the tracks are circular, and a single disk will often have well over 100,000 tracks. Each track contains hundreds of thousands of pages, and each page containing 4k (or so) of data. An HDD requires a mechanical spinning motion of both the reader and the platter to bring the data to the correct location for reading. One advantage of HDD over tape is that the entire surface area of the bits is available 100% of the time. It still takes time to move the needle + spin the disk to the correct location for a read or write, but it does not need to be "uncovered" like it needs to be for a tape. This combined with the fact that there are two different things that can spin, means data can be read and written with much lower latency. A typical random read can be performed in 1-3 milliseconds. Below is an interactive hard drive. You can control the speed of the platter if you'd like it faster or slower. You can request that the hard drive read a page and write to a nearby available page. If you request a read or write before the previous one is complete, a queue will be built up, and the disk will process the requests in the order it receives them. As before, you'll also be able to see the queue of pending IO operations in the white IO queue box. As with the tape, the speed of the platter spin has been slowed down by orders of magnitude to make it easier to see what's going on. In real disks, there would also be many more tracks and sectors, enough to store multiple terabytes of data in some cases. Let's again consider a few specific scenarios to see how the order of reads and writes affects latency. Say we need to write a total of three pages of data and then read 3 pages afterward. The three writes will happen on nearby available pages, and the reads will be from tracks 1, 4, and 3. Go ahead and click the Time IO button. You'll see the requests hit the queue, the reads and writes get fulfilled, and then the total time at the end. Due to the sequential nature of most of these operations, all the tasks were able to complete quickly. Now consider the same set of 6 reads and writes, but with them being interleaved in a different order. Go ahead and click the Time IO button again. If you had the patience to wait until the end, you should notice how the same total number of reads and writes took much longer. A lot of time was spent waiting for the platter to spin into the correct place under the read head. Magnetic disks have supported command queueing directly on the disks for a long time (80s with SCSI, 2000s with SATA). Because of this, the OS can issue multiple commands that run in parallel and potentially out-of-order, similar to SSDs. Magnetic disks also improve their performance if they can build up a queue of operations that the disk controller can then schedule reads and writes to optimize for the geometry of the disk. Here's a visualization to help us see the difference between the latency of a random tape read compared to a random disk read. A random tape read will often take multiple seconds (I put 1 second here to be generous) and a disk head seek takes closer to 2 milliseconds (one thousandth of a second) Even though HDDs are an improvement over tape, they are still "slow" in some scenarios, especially random reads and writes. The next big breakthrough, and currently the most common storage format for transactional databases, are SSDs. Solid State Storage, or "flash" storage, was invented in the 1980s. It was around even while tape and hard disk drives dominated the commercial and consumer storage spaces. It didn't become mainstream for consumer storage until the 2000s due to technological limitations and cost. The advantage of SSDs over both tape and disk is that they do not rely on any mechanical components to read data. All data is read, written, and erased electronically using a special type of non-volatile transistor known as NAND flash. This means that each 1 or 0 can be read or written without the need to move any physical components, but 100% through electrical signaling. SSDs are organized into one or more targets, each of which contains many blocks which each contain some number of pages. SSDs read and write data at the page level, meaning they can only read or write full pages at a time. In the SSD below, you can see reads and writes happening via the lines between the controller and targets (also called "traces"). The removal of mechanical components reduces the latency between when a request is made and when the drive can fulfill the request. There is no more waiting around for something to spin. We're showing small examples in the visual to make it easier to follow along, but a single SSD is capable of storing multiple terabytes of data. For example, say each page holds 4096 bits of data (4k). Now, say each block stores 16k pages, each target stores 16k blocks, and our device has 8 targets. This comes out to 4k * 16k * 16k * 8 = 8,796,093,022,208 bits, or 8 terabytes. We could increase the capacity of this drive by adding more targets or packing more pages in per block. Here's a visualization to help us see the difference between the latency of a random read on an HDD vs SSD. A random read on an SSD varies by model, but can execute as fast as 16μs (μs = microsecond, which is one millionth of a second). It would be tempting to think that with the removal of mechanical parts, the organization of data on an SSD no longer matters. Since we don't have to wait for things to spin, we can access any data at any location with perfect speed, right? Not quite. There are other factors that impact the performance of IO operations on an SSD. We won't cover them all here, but two that we will discuss are parallelism and garbage collection. Typically, each target has a dedicated line going from the control unit to the target. This line is what processes reads and writes, and only one page can be communicated by each line at a time. Pages can be communicated on these lines really fast, but it still does take a small slice of time. The organization of data and sequence of reads and writes has a significant impact on how efficiently these lines can be used. In the interactive SSD below, we have 4 targets and a set of 8 write operations queued up. You can click the Time IO button to see what happens when we can use the lines in parallel to get these pages written. In this case, we wrote 8 pages spread across the 4 targets. Because they were spread out, we were able to leverage parallelism to write 4 at a time in two time slices. Compare that with another sequence where the SSD writes all 8 pages to the same target. The SSD can only utilize a single data line for the writes. Again, hit the Time IO button to see the timing. Notice how only one line was used and it needed to write sequentially. All the other lines sat dormant. This demonstrates that the order in which we read and write data matters for performance. Many software engineers don't have to think about this on a day-to-day basis, but those designing software like MySQL need to pay careful attention to what structures data is being stored in and how data is laid out on disk. The minimum "chunk" of data that can be read from or written to an SSD is the size of a page. Even if you only need a subset of the data within, that is the unit that requests to the drive must be made in. Data can be read from a page any number of times. However, writes are a bit different. After a page is written to, it cannot be overwritten with new data until the old data has been explicitly erased. The tricky part is, individual pages cannot be erased. When you need to erase data, the entire block must be erased, and afterwards all of the pages within it can be reused. Each SSD needs to have an internal algorithm for managing which pages are empty, which are in use, and which are dirty. A dirty page is one that has been written to but the data is no longer needed and ready to be erased. Data also sometimes needs to be re-organized to allow for new write traffic. The algorithm that manages this is called the garbage collector. Let's see how this can have an impact by looking at another visualization. In the below SSD, all four of the targets are storing data. Some of the data is dirty, indicated by red text. We want to write 5 pages worth of data to this SSD. If we time this sequence of writes, the SSD can happily write them to free pages with no need for extra garbage collection. There are sufficient unused pages in the first target. Now say we have a drive with different data already on it, but we want to write those same 5 pages of data to it. In this drive, we only have 2 pages that are unused, but a number of dirty pages. In order to write 5 pages of data, the SSD will need to spend some time doing garbage collection to make room for the new data. When attempting to time another sequence of writes, some garbage collection will take place to make room for the data, slowing down the write. In this case, the drive had to move the two non-dirty pages from the top-left target to new locations. By doing this, it was able to make all of the pages on the top-left target dirty, making it safe to erase that data. This made room for the 5 new pages of data to be written. These additional steps significantly slowed down the performance of the write. This shows how the organization of data on the drive can have an impact on performance. When SSDs have a lot of reads, writes, and deletes, we can end up with SSDs that have degraded performance due to garbage collection. Though you may not be aware, busy SSDs do garbage collection tasks regularly, which can slow down other operations. These are just two of many reasons why the arrangement of data on a SSD affects its performance. The shift from tape, to disk, to solid state has allowed durable IO performance to accelerate dramatically over the past several decades. However, there is another phenomenon that has caused an additional shift in IO performance: moving to the cloud. Though there were companies offering cloud compute services before this, the mass move to cloud gained significant traction when Amazon AWS launched in 2006. Since that time, tens of thousands of companies have moved their app servers and database systems to their cloud and other similar services from Google, Microsoft, and others. Though there are many upsides to this trend, there are several downsides. One of these is that servers tend to have less permanence. Users rent (virtualised) servers on arbitrary hardware within gigantic data centers. These servers can get shut down at any time for a variety of reasons – hardware failure, hardware replacement, network disconnects, etc. When building platforms on rented cloud infrastructure, computer systems need to be able to tolerate more frequent failures at any moment. This, along with many engineers' desire for dynamically-scaleable storage volumes has led to a new sub-phenomenon: Separation of storage and compute. Traditionally, most servers, desktops, laptops, phones and other computing devices have their non-volatile storage directly attached. These are attached with SATA cables, PCIe interfaces, or even built directly into the same SOC as the RAM, CPU, and other components. This is great for speed, but provides the following challenges: For application servers, 1. and 2. are typically not a big deal since they work well in ephemeral environments by design. If one goes down, just spin up a new one. They also don't typically need much storage, as most of what they do happens in-memory. Databases are a different story. If a server goes down, we don't want to lose our data, and data size grows quickly, meaning we may hit storage limits. Partly due to this, many cloud providers allow you to spin up compute instances with a separately-configurable storage system attached over the network. In other words, using network-attached storage as the default. When you create a new server in EC2, the default is typically to attach an EBS network storage volume. Many database services including Amazon RDS, Amazon Aurora, Google Cloud SQL, and PlanetScale rely on these types of storage systems that have compute separated from storage over the network. This provides a nice advantage in the that the storage volume can be dynamically resized as data grows and shrinks. It also means that if a server goes down, the data is still safe, and can be re-attached to a different server. This simplicity has come at a cost, however. Consider the following simple configuration. In it, we have a server with a CPU, RAM, and direct-attached NVMe SSD. NVMe SSDs are a type of solid state disk that use the non-volatile memory host controller interface specification for blazing-fast IO speed and great bandwidth. In such a setup, the round trip from CPU to memory (RAM) takes about 100 nanoseconds (a nanosecond is 1 billionth of a second). A round trip from the CPU to a locally-attached NVMe SSD takes about 50,000 nanoseconds (50 microseconds). This makes it pretty clear that it's best to keep as much data in memory as possible for faster IO times. However, we still need disk because (A) memory is more expensive and (B) we need to store our data somewhere permanent. As slow as it may seem here, a locally-attached NVMe SSD is about as fast as it gets for modern storage. Let's compare this to the speed of a network-attached storage volume, such as EBS. Read and write requires a short network round trip within a data center. The round trip time is significantly worse, taking about 250,000 nanoseconds (250 microseconds, or 0.25 milliseconds). Using the same cutting-edge SSD now takes an order of magnitude longer to fulfill individual read and write requests. When we have large amounts of sequential IO, the negative impact of this can be reduced, but not eliminated. We have introduced significant latency deterioration for every time we need to hit our storage system. Another issue with network-attached storage in the cloud comes in the form of limiting IOPS. Many cloud providers that use this model, including AWS and Google Cloud, limit the amount of IO operations you can send over the wire. By default, a GP3 EBS instance on Amazon allows you to send 3000 IOPS per-second, with an additional pool that can be built up to allow for occasional bursts. The following visual shows how this works. Note that the burst balance size is smaller here than in reality to make it easier to see. If instead you have your storage attached directly to your compute instance, there are no artificial limits placed on IO operations. You can read and write as fast as the hardware will allow for. For as many steps as we've taken forward in IO performance over the years, this seems like a step in the wrong direction. This separation buys some nice conveniences, but at what cost to performance? How do we overcome issue 1 (data durability) and 2 (drive scalability) while keeping good IOPS performance? Issue 1 can be overcome with replication. Instead of relying on a single server to store all data, we can replicate it onto several computers. One common way of doing this is to have one server act as the primary, which will receive all write requests. Then 2 or more additional servers get all the data replicated to them. With the data in three places, the likelihood of losing data becomes very small. Let's look at concrete numbers. As a made up value, say in a given month, there is a 1% chance of a server failing. With a single server, this means we have a 1% chance of losing our data each month. This is an unacceptable for any serious business purpose. However, with three servers, this goes down to 1% × 1% × 1% = 0.0001% chance (1 in one million). At PlanetScale the protection is actually far stronger than even this, as we automatically detect and replace failed nodes in your cluster. We take frequent and reliable backups of the data in your database for added protection. Problem 2. can be solved, though it takes a bit more manual intervention when working with directly-attached SSDs. We need to ensure that we monitor and get alerted when our disk approaches capacity limits, and then have tools to easily increase capacity when needed. With such a feature, we can have data permanence, scalability, and blazing fast performance. This is exactly what PlanetScale has built with Metal. Planetscale just announced Metal, an industry-leading solution to this problem. With Metal, you get a full-fledged Vitess+MySQL cluster set up, with each MySQL instance running with a direct-attached NVMe SSD drive. Each Metal cluster comes with a primary and two replicas by default for extremely durable data. We allow you to resize your servers with larger drives with just a few clicks of a button when you run up against storage limits. Behind the scenes, we handle spinning up new nodes and migrating your data from your old instances to the new ones with zero downtime. Perhaps most importantly, with a Metal database, there is no artificial cap on IOPS. You can perform IO operations with minimal latency, and hammer it as hard as you want without being throttled or paying for expensive IOPS classes on your favorite cloud provider. If you want the ultimate in performance and scalability, try Metal today. Privacy | Terms | Cookies | Do Not Share My Personal Information © 2025 PlanetScale, Inc. All rights reserved. GitHub | X | LinkedIn | YouTube | Facebook。

GitHub – crmne/ruby_llm: A delightful Ruby way to work with AI. No configuration madness, no complex callbacks, no handler hell – just beautiful, expressive Ruby code.
21
We read every piece of feedback, and take your input very seriously. To see all available qualifiers, see our documentation. A delightful Ruby way to work with AI. No configuration madness, no complex callbacks, no handler hell – just beautiful, expressive Ruby code. A delightful Ruby way to work with AI. No configuration madness, no complex callbacks, no handler hell – just beautiful, expressive Ruby code. 🤺 Battle tested at 💬 Chat with Work Every AI provider comes with its own client library, its own response format, its own conventions for streaming, and its own way of handling errors. Want to use multiple providers? Prepare to juggle incompatible APIs and bloated dependencies. RubyLLM fixes all that. One beautiful API for everything. One consistent format. Minimal dependencies — just Faraday and Zeitwerk. Because working with AI should be a joy, not a chore. Configure with your API keys: Check out the guides at https://rubyllm.com for deeper dives into conversations with tools, streaming responses, embedding generations, and more. Released under the MIT License. A delightful Ruby way to work with AI. No configuration madness, no complex callbacks, no handler hell – just beautiful, expressive Ruby code.。

そのドキュメント、ちゃんと息してる? ~ 使われ続ける“生きた”ドキュメントの育て方 ~
80

ドキュメントを作って終わりにせず、活用し続けるためのヒントを得たい方の参考になれば幸いです! “Is Your Documentation Alive?”
~ How to Keep It Relevant and Continuously Used ~ This LT explores the theme, “Is your document still breathing?”, focusing on how to prevent documentation from becoming outdated and ensuring it remains actively used.
It introduces four key steps to maintaining living documentation, along with practical and actionable methods.
If you want to go beyond just creating documents and learn how to keep them relevant and useful, this is for you! SpeakerDeck Copyright © 2025 Speaker Deck, LLC. All slide content and descriptions are owned by their creators.。
生きたドキュメントを育てるための4つのステップを紹介し、実践しやすい具体的な方法もあわせて紹介しています。このLTでは、「そのドキュメント、ちゃんと息してる?」をテーマに、ドキュメントが化石化せず、使われ続けるためのポイントについて解説します。


医療機関等はサイバー攻撃に備え「適切なパスワード設定、管理」「USB接続制限」「2要素認証」等確認を—―医療等情報利活用ワーキング(2) | GemMed | データが拓く新時代医療
10
緊急時用の柔軟な仕組みとその厳格な運用ルール設定なども検討しておくべき(高倉弘喜構成員:国立情報学研究所ストラテジックサイバーレジリエンス研究開発センター長)▼小規模医療機関向けに「どのような規定を整備すればよいのか」を具体的に示すなどの支援も行ってほしい(小野寺哲夫構成員:日本歯科医師会常務理事)▼今やネット通販などでも2要素認証は一般的に行われるようになってきており、医療機関等でも導入を急いでほしい(近藤則子構成員:老テク研究会事務局長)▼医療機関とベンダーとの情報システム契約内容によって「サイバーセキュリティ対策」費用が新たに発生するのか、などが変わってくると思われる。
▼2要素認証
以下のいずれか2要素を用いてアクセス権限の認証を行う
・ID・パスワードの組み合わせのような「利用者の記憶」によるもの
・指紋や静脈、虹彩のような利用者の生体的特徴を利用した「生体情報」によるもの
・ICカードのような「物理媒体」によるもの

【規程類の整備】
▽医療情報システムの安全管理が適切に行われるためには、組織内において「明文化されたルール」を定めた運用管理規程の整備が重要である(明文化ルールがない場合、情報セキュリティ担当者が異動した場合などに安全性確保が難しくなる)

(対策方針)
▽サイバーセキュリティ対策チェックリストにおいても「運用管理規程の整備状況」についての項目を追加する

●2025年度のサイバーセキュリティチェックリスト案はこちら(後述のように退職者等アカウントの管理について一部修正される見込み)
●2025年度版の医療機関等におけるサイバーセキュリティ対策チェックリストマニュアル(案)はこちらとこちら(2024年度版からの修正点を見え消しにしている版)
2025年度版のサイバーセキュリティ対策チェックリスト案(医療等情報利活用ワーキング(2)1 250313)

こうしたサイバーセキュリティチェックリストの充実方針に異論・反論は出ておらず、厚労省は「2025年度の立入検査」(2025年5,6月頃に実施される見込み)に向けてチェックリストの整備・公表を近く行います。また医療機関単独での対応が困難なこともあり、国からベンダーに対し「医療機関への協力」をしっかり要請してほしい(長島構成員)▼検査を行う保健所職員への研修などを十分に行ってほしい(山口育子構成員:ささえあい医療人権センターCOML理事長)▼2要素認証の導入は非常に重要だが、医療機関等は「生命を守る」ための緊急対応が必要な場面も出てこよう。


MCPサーバーで開発効率が3倍に!2025年必須の10大ツール – Qiita
282
各カテゴリーのMCPサーバーは、単独でも強力ですが、組み合わせることでさらに大きな効果を発揮します: 開発効率の最大化 コミュニケーションの円滑化 インフラストラクチャの最適化 MCPサーバーは、以下の3つの観点で開発の未来を変えていきます: 時間の節約 精度の向上 スケーラビリティ ニーズの特定 段階的な導入 ベストプラクティス 2025年、MCPサーバーとApidogを組み合わせることで、開発者の夢が現実になります。「百聞は一見にしかず」ですから、実際に使ってみると、その便利さに驚くはずです! 10個のMCPサーバーを機能と用途に基づいて、以下の4つのカテゴリーに分類しました: 開発者向けTips: Apidogを使えば、GitHubのAPIエンドポイントを簡単にテストできます。ぜひ、あなたも今日からMCPサーバーの旅を始めてみてください! Go to list of users who liked Go to list of comments Register as a new user and use Qiita more conveniently Go to list of users who liked Delete article Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? How developers code is here. Guide & Help Contents Official Accounts Our service Company。

Geminiの「Deep Research」が一部無料開放、ユーザーの趣味趣向に沿った回答生成も
31
検索 閉じる ケータイ Watch をフォローする Special Site アクセスランキング 最新記事 連載本日の一品byゼロ・ハリ 話題のLAMY JETSTREAM替え芯を買ったがLAMY pico限定モデルに落ち着いた 3月17日 00:01 連載みんなのケータイby日沼諭史 Pixel上で動くLinuxターミナルが公開されたぞ! 遊んでみよう 3月17日 00:00 連載スタパ齋藤の「スタパトロニクスMobile」 中華ブランドのTELESIN°がマ~ジで良かった! コスパバツグンのMagSafe対応アームって 3月17日 00:00 Google、セキュリティ意識向上などを目的に「Japan Cybersecurity Initiative」を設立 3月15日 09:00 連載DATAで見るケータイ業界 基地局ベンダーの現在地 3月15日 07:00 レビュー 「Xiaomi 15 Ultra」クイックフォトレビュー 3月15日 06:00 NTT法廃止は見送り「3年後を目処に再検討」、村上大臣が会見 サイトブロッキングは「慎重な検討が必要」と説明 3月15日 06:00 ワイモバイル、追加契約で「iPhone SE(第3世代)」を4万4640円に割引 3月14日 20:14 Geminiの「Deep Research」が一部無料開放、ユーザーの趣味趣向に沿った回答生成も 3月14日 20:14 シニアの「足の健康」を支持、楽天モバイルと科研製薬が提携 3月14日 19:27 au PAY マーケット、最大37%還元の「ポイント交換所 大還元祭」を開催 15日~21日まで 3月14日 15:35 ちいかわのスマホアプリ「ちいかわぽけっと」、27日に登場 3月14日 15:34 【セール情報】本日のPICK UP 「Apple Watch SE 40mm(第2世代)」がAmazonでセール 7%割引 3月14日 13:40 【セール情報】本日のPICK UP Amazonで「AirPods 4」、「AirPods Pro 2」などが最大で9%引き Amazonセール 3月14日 13:06 「Galaxy S25」シリーズ、AmazonやヨドバシカメラもSIMフリー版を取扱 3月14日 13:05 Impress Watchシリーズ 人気記事 おすすめ記事 初心者の方におくる、スマートウォッチを選ぶときに確認したい10のこと グーグル「Pixel 9 Pro」レビュー 「Pixel 9 Pro XL」とどちらを選ぶべき? iPhone 16シリーズ、買うならどのモデル? 各モデルの違いから選び方を考える ニュース 島田 純 2025年3月14日 20:14 Googleは、生成AI「Gemini」で検索履歴にもとづいたパーソナライズ機能の提供や、詳細を検索してレポート形式で出力する「Deep Research」を無料ユーザーでも利用可能にするなど、機能の拡充・サービス拡大を行った。 Gemini Advanced、過去の会話を活用した新機能追加 2025年2月15日 連載てっぱんアプリ!by日沼 諭史 欲しい情報を自然な会話でゲット~「Gemini Live」が超便利! 2024年11月22日 グーグルの最新生成AIモデル「Gemini 2.0 Flash」が提供開始 2025年1月31日 トップページに戻る Copyright ©2018Impress Corporation. All rights reserved.。 使い方は、モデルのドロップダウンメニューから、「Personalization(experimental)」を選択すると、GeminiアプリとGoogle検索履歴を接続するための確認ダイアログが表示され、「今すぐ接続」を選ぶと、GeminiがユーザーのGoogle検索履歴にアクセスできるようになる。

MCPサーバーが切り拓く!自社サービス運用の新次元 – エムスリーテックブログ
282
サービスの機能をMCP経由で使うこと自体にもメリットはありそうですが、個人的にはサービス運用やカスタマーサポートにこそ真価を発揮するのでは?と思い、MCPサーバーによる業務効率化の可能性として、以下のような活用方法を検討しています。 エンジニアリングで事業を革新したい仲間を募集中です!
技術を駆使して、新たなサービスの可能性を一緒に切り拓きませんか? jobs.m3.com open.talentio.com *1:現在AskDoctorsにMCPサーバーとしての機能や外部から検索を可能にするAPIなどの機能はありません。 社内システムにおけるMCPの活用可能性を探るため、遠隔健康医療相談サービス「AskDoctors」のQ&A検索機能をMCPサーバーとして実装する検証を行いました。

Apple Intelligenceがクソ過ぎてiPhone 17の販売にも影響を与える可能性 – こぼねみ
24
Apple公式サイト【PR】
ドコモオンラインショップ【PR】
ソフトバンク【PR】
ワイモバイル【PR】
au Online Shop【PR】
楽天モバイル【PR】 ヤマダウェブコム【PR】
ビックカメラ.com【PR】
Amazon.co.jp【PR】 ちょびリッチ(登録で2000円分相当もらえる)【PR】
ライフメディア(登録で最大2500円相当もらえる)【PR】
楽天Rebates(登録で最大2000円相当もらえる)【PR】
モッピー(登録で最大2000円相当もらえる)【PR】
ハピタス(登録で最大1000円相当もらえる)【PR】
ECナビ(登録で最大1000円相当もらえる)【PR】
ポイントタウン(登録で最大2000円相当もらえる)【PR】
ポイントインカム(登録で最大2000円相当もらえる)【PR】
Gポイント【PR】 kobonemi
2025-03-14 10:02 現在の噂や新情報は、iPhone 17シリーズ、Apple Watch Series 11、次世代Macなど。 Kuo氏は昨年7月の段階で、Apple IntelligenceがiPhoneのアップグレードを促進するという期待は「楽観的すぎる」可能性が高いと述べており、今年1月にはさらに、Appleが6月にApple Intelligenceの機能を披露してから10月に開始されるまで時間がかかったために、Apple Intelligenceの魅力は「著しく低下した」と述べていました。 Apple IntelligenceのSiriの遅延によってAppleが直面している否定的な人々の反応は、今後数ヶ月のiPhone 16とiPhone 17モデルの販売にも影響を与える可能性があります。

コメント

タイトルとURLをコピーしました