私的良スレ書庫
不明な単語は2ch用語を / 要望・削除依頼は掲示板へ。不適切な画像報告もこちらへどうぞ。 / 管理情報はtwitterでログインするとレス評価できます。 登録ユーザには一部の画像が表示されますので、問題のある画像や記述を含むレスに「禁」ボタンを押してください。
元スレMySQL 総合 Part24
mysql スレッド一覧へ / mysql とは? / 携帯版 / dat(gz)で取得 / トップメニューみんなの評価 :
レスフィルター : (試験中)
>>550
できます。
できます。
>>551
ぐぐっても見つけられないのですが
やり方を教えてもらえますか
ちょっと特殊な要件でinsertやupdateは自動変換してほしくて、selectは変換しないでほしいと言った
使い方をしたいのですが
ぐぐっても見つけられないのですが
やり方を教えてもらえますか
ちょっと特殊な要件でinsertやupdateは自動変換してほしくて、selectは変換しないでほしいと言った
使い方をしたいのですが
>>552
> ちょっと特殊な要件でinsertやupdateは自動変換してほしくて、selectは変換しないでほしいと言った
> 使い方をしたいのですが
そもそもalter tableで解決するの?
保存している文字列自体の文字コードを、character_set_clientを変更することにより自動で変換したいように見える。
もちろんそんなことは出来ないけど。
> ちょっと特殊な要件でinsertやupdateは自動変換してほしくて、selectは変換しないでほしいと言った
> 使い方をしたいのですが
そもそもalter tableで解決するの?
保存している文字列自体の文字コードを、character_set_clientを変更することにより自動で変換したいように見える。
もちろんそんなことは出来ないけど。
具体的に言うと、テレビのEPGデータがshift_jisと思われるのですが
海外のソフトを使うとテーブルがUTF8なんで文字化けしちゃうので
EPGテーブルをテーブルにinsertするときに変換して
検索するときにはUTF8で使いたいという内容です
海外のソフトを使うとテーブルがUTF8なんで文字化けしちゃうので
EPGテーブルをテーブルにinsertするときに変換して
検索するときにはUTF8で使いたいという内容です
ある書類に関するデータベースを作っているんだけど、
そのなかに、作成年月日を作ってあるんだけど、
昔の書類は年月日までなくて、年とか年月までとか
そんなデータしか残ってないものもあって、
そんな書類が膨大にあって、そのデータをいろいろ
検索したい。作成の年・月・日がわかっているものは、
期間検索でばさっと検索できるけど、月までしかない
もののとき、1日とか入れちゃうと、本当に1日に作成されている
ものとぐちゃぐちゃになるし、期間検索で、月の途中から
途中までで検索したいとき、うまくひっかからないことがある。
そういうのをどうすればいいかなーと悩んでます。
そのなかに、作成年月日を作ってあるんだけど、
昔の書類は年月日までなくて、年とか年月までとか
そんなデータしか残ってないものもあって、
そんな書類が膨大にあって、そのデータをいろいろ
検索したい。作成の年・月・日がわかっているものは、
期間検索でばさっと検索できるけど、月までしかない
もののとき、1日とか入れちゃうと、本当に1日に作成されている
ものとぐちゃぐちゃになるし、期間検索で、月の途中から
途中までで検索したいとき、うまくひっかからないことがある。
そういうのをどうすればいいかなーと悩んでます。
ものすごい初歩的なこと聞いていい?
日付データ的なもので、年と月までのデータがあるんだけど、
これってどうするの? 今はとりあえずテキストで1999年12月
とか入れてあるけど、期間で検索できないから困ってる。
日付データ的なもので、年と月までのデータがあるんだけど、
これってどうするの? 今はとりあえずテキストで1999年12月
とか入れてあるけど、期間で検索できないから困ってる。
カラムの詳細(型とか)と最終的にやりたいことが分からないから答えようがない。
まとまったら
http://toro.2ch.net/test/read.cgi/db/1371476534/
で聞けばいい。
まとまったら
http://toro.2ch.net/test/read.cgi/db/1371476534/
で聞けばいい。
昔の文献のデータベースを作ってるんだけど、
昔の文献には作成年月日が詳細に書かれていないものが多くて、
月までしかわからないものは月までにしておかないと、
詳細に作成年月日がわかっているものと区別がつかなくなる。
それに下手に1日とか15日とか入れちゃうと、期間検索したときに
不都合多そうで。
昔の文献には作成年月日が詳細に書かれていないものが多くて、
月までしかわからないものは月までにしておかないと、
詳細に作成年月日がわかっているものと区別がつかなくなる。
それに下手に1日とか15日とか入れちゃうと、期間検索したときに
不都合多そうで。
mysqlだと日付に0入れることが出来るけどね
こんな感じで
insert into dd values ('2014-05-00');
こんな感じで
insert into dd values ('2014-05-00');
>>562
昔、悩んだことがある。
日だけ別のフィールドを作れば理論的には区別できるけど面倒。
実用的には日まで気にして検索することは少ないので、日が不明なのは15日と仮定し、オリジナルのデータを別フィールドで持つことにした。
昔、悩んだことがある。
日だけ別のフィールドを作れば理論的には区別できるけど面倒。
実用的には日まで気にして検索することは少ないので、日が不明なのは15日と仮定し、オリジナルのデータを別フィールドで持つことにした。
>>563
それって言語によって2014-04-30と認識しちゃうとか?
ポスグレ移行も考えてるのでなるべく標準に近いデータにしたい。
どうすりゃいいんだろ。普通に年・月のデータってあると思うんだけど
ググってもわからないし。
それって言語によって2014-04-30と認識しちゃうとか?
ポスグレ移行も考えてるのでなるべく標準に近いデータにしたい。
どうすりゃいいんだろ。普通に年・月のデータってあると思うんだけど
ググってもわからないし。
(´・ω・`)バックアップ取るとき、default-character-setにbinaryを指定するのって変?
>>576
安全
安全
会社でmysql使ってるんだけど
Dumpしたデータをリストアしようとしたら、途中から急にメモリが跳ね上がってサービスが強制終了するんだけどなんで?
どこ調べても解決しない
Dumpしたデータをリストアしようとしたら、途中から急にメモリが跳ね上がってサービスが強制終了するんだけどなんで?
どこ調べても解決しない
入門本というか基礎本一冊終わらしたんですが次に買うのにオススメの本はありますか?
本読むのも良いし止めろとは言わないけど、自分で実際にデータ入れて作業してみたら?
そこで、外部制約かけたりとかストアドプロシジャ作ってみるとか
それから自分で出来る言語でDBアプリ作ってみるとか
そこで、外部制約かけたりとかストアドプロシジャ作ってみるとか
それから自分で出来る言語でDBアプリ作ってみるとか
phpMyAdminでインポートタブのなかのフォーマットの中にCSV load dataみたいな名前のやつがあったのに無くなってしまった
元に戻すにはどうしたらよいですか?
元に戻すにはどうしたらよいですか?
>>585
books.book_idには主キーかインデックスを作ってあると思うけど、
それを大前提として、それでも遅いならディスクI/Oかなあ。
Linuxならiostat -xm 1 で r/s と %util を見て。Windowsは知らん
books.book_idには主キーかインデックスを作ってあると思うけど、
それを大前提として、それでも遅いならディスクI/Oかなあ。
Linuxならiostat -xm 1 で r/s と %util を見て。Windowsは知らん
>>589
プラン同じだね。
下は結果がが50万行出てくるけど、50万行垂れ流すのが0.0027秒で終わるわけがない。
何らかのGUIツールを使っていて、1画面だけ表示、暗黙的にLIMIT 100とかしてない?
つまり上が遅いのではなく、下がインチキしている(最後まで処理をしていない)と言いたい。
プラン見る限り一時テーブルは作ってない。
それで個人的な感想ですけど、50万行の集計が2.2秒というのは「十分に速い」です。
明らかにI/Oはしていない。I/Oしてたら数分かかる。
もっと速くしたいなら前段にmemcachedなどを入れて結果をキャッシュしよう。
プラン同じだね。
下は結果がが50万行出てくるけど、50万行垂れ流すのが0.0027秒で終わるわけがない。
何らかのGUIツールを使っていて、1画面だけ表示、暗黙的にLIMIT 100とかしてない?
つまり上が遅いのではなく、下がインチキしている(最後まで処理をしていない)と言いたい。
プラン見る限り一時テーブルは作ってない。
それで個人的な感想ですけど、50万行の集計が2.2秒というのは「十分に速い」です。
明らかにI/Oはしていない。I/Oしてたら数分かかる。
もっと速くしたいなら前段にmemcachedなどを入れて結果をキャッシュしよう。
あと、メンテナンスがつらくなるのでおすすめはしないけど
テーブルを非正規化してcommentsテーブルにdeletedカラムを入れてもいいと思う。
それで1秒は切れると予想。
テーブルを非正規化してcommentsテーブルにdeletedカラムを入れてもいいと思う。
それで1秒は切れると予想。
>>589
ちなみに、count(comments.comment_id)だとどう?
ちなみに、count(comments.comment_id)だとどう?
こんなんんで2秒かかってたらPostgreSQLにボロ負けなんで許せません
あっちはハッシュを使ってくるのでどう戦いますかな
あっちはハッシュを使ってくるのでどう戦いますかな
> FROM (SELECT books.book_id FROM books WHERE deleted=0)
> INNER JOIN comments USING(book_id)
もEXPLAIN同じだろうし
comments.book_idには既にインデックス付けてるだろうし
↓しかないかも?
http://github.com/nekoatcafe/wiki/wiki/MySQL%EF%BC%9Acount(*)%E5%AF%BE%E7%AD%96
> INNER JOIN comments USING(book_id)
もEXPLAIN同じだろうし
comments.book_idには既にインデックス付けてるだろうし
↓しかないかも?
http://github.com/nekoatcafe/wiki/wiki/MySQL%EF%BC%9Acount(*)%E5%AF%BE%E7%AD%96
>>598
あまり期待しないでほしいのだけれど、テーブル結合順を逆にする案。
大半の本が削除されている(deleted = 0が少ない)場合はこちらの方が速い。
CREATE INDEX books_deleted ON books (deleted);
CREATE INDEX comments_book_id ON comments (book_id)
SELECT STRAIGHT_JOIN COUNT(comments.comment_id)
FROM books INNER JOIN comments ON books.book_id = comments.book_id
WHERE books.deleted = 0
あまり期待しないでほしいのだけれど、テーブル結合順を逆にする案。
大半の本が削除されている(deleted = 0が少ない)場合はこちらの方が速い。
CREATE INDEX books_deleted ON books (deleted);
CREATE INDEX comments_book_id ON comments (book_id)
SELECT STRAIGHT_JOIN COUNT(comments.comment_id)
FROM books INNER JOIN comments ON books.book_id = comments.book_id
WHERE books.deleted = 0
前へ 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 次へ / 要望・削除依頼は掲示板へ / 管理情報はtwitterで / mysql スレッド一覧へ
みんなの評価 : 類似してるかもしれないスレッド
- MySQL 総合 Part25 (947) - [94%] - 2017/6/18 6:30
- MySQL 総合 Part14 (1001) - [94%] - 2008/11/23 10:17 ☆
- MySQL 総合 Part23 (992) - [94%] - 2013/8/11 17:00
- MySQL 総合 Part22 (1001) - [94%] - 2012/7/10 16:45
- MySQL 総合 Part26 (860) - [94%] - 2023/2/2 9:30
- MySQL 総合 Part21 (1001) - [94%] - 2011/12/25 22:16
- MySQL 総合 Part20 (995) - [94%] - 2011/10/17 4:48
- MySQL 総合 Part12 (1001) - [89%] - 2008/1/30 17:34 ○
- MySQL 総合 Part18 (986) - [89%] - 2011/1/17 15:46
- MySQL 総合 Part13 (996) - [89%] - 2008/6/10 21:02 ☆
- MySQL 総合 Part15 (1001) - [89%] - 2009/4/20 12:15 ☆
- MySQL 総合 Part17 (1001) - [89%] - 2010/6/10 20:47 ○
- MySQL 総合 Part19 (982) - [89%] - 2011/6/9 2:33
- MySQL vs PostgreSQL Part2 (941) - [36%] - 2022/5/26 1:30 ○
トップメニューへ / →のくす牧場書庫について