fredag 23 december 2011
Banque populaire 5
Den här amatörvideon visar när maxitrimaranen BP5 passerar. Uttrycket swischa förbi är ganska passande.
Fallgropar i c++
Otroligt bra läsning när man lämnat Hello World bakom sig. Det är lätt i början av listan...
http://www.horstmann.com/cpp/pitfalls.html
http://www.horstmann.com/cpp/pitfalls.html
Använda alla bibliotek från boost
Jag träffade nyligen en c++-utvecklare som precis som jag är en varm anhängare av boost. Han hade använt, med något enstaka undantag, alla boostbibliotek! Jag blev omedelbart imponerad.
Jag går igenom listan själv och konstaterar att jag faktiskt använt 27 av biblioteken i verkliga projekt. Har satt en asterisk framför de jag använt hittills.
Listan finns här för version 1.48 (senaste i skrivande stund). Den innehåller imponerande 111 bibliotek! (en del listas förvissa som flera).
Jag får en viss lust att gå igenom de resterande och skriva ett litet program för var och en av dom. Det får vänta till nån sömnlös natt...
Jag går igenom listan själv och konstaterar att jag faktiskt använt 27 av biblioteken i verkliga projekt. Har satt en asterisk framför de jag använt hittills.
Listan finns här för version 1.48 (senaste i skrivande stund). Den innehåller imponerande 111 bibliotek! (en del listas förvissa som flera).
Jag får en viss lust att gå igenom de resterande och skriva ett litet program för var och en av dom. Det får vänta till nån sömnlös natt...
- Accumulators
- *Any
- *Array
- *Asio
- *Assign
- *Bimap
- *Bind
- Call Traits
- Chrono
- *Circular Buffer
- Compatibility
- Compressed Pair
- Concept Check
- Config
- Container
- Conversion
- *CRC
- *Date Time
- Disjoint Sets
- Dynamic Bitset
- Enable If
- Exception
- *Filesystem
- Flyweight
- *Foreach
- Format
- Function
- Function Types
- Functional
- Functional/Factory
- Functional/Forward
- Functional/Hash
- Fusion
- Geometry
- GIL
- *Graph
- ICL
- In Place Factory, Typed In Place Factory
- *Integer
- *Interprocess
- Interval
- Intrusive
- *IO State Savers
- *Iostreams
- Iterators
- Lambda
- Lexical Cast
- Locale
- Math
- Math Common Factor
- Math Octonion
- Math Quaternion
- Math/Special Functions
- Math/Statistical Distributions
- Member Function
- Meta State Machine
- Min-Max
- Move
- MPI
- MPL
- Multi-Array
- Multi-Index
- *Numeric Conversion
- Operators
- Optional
- Parameter
- Phoenix
- Pointer Container
- Polygon
- Pool
- Preprocessor
- *Program Options
- *Property Map
- *Property Tree
- Proto
- Python
- *Random
- Range
- Ratio
- Rational
- *Ref
- *Regex
- Result Of
- Scope Exit
- *Serialization
- Signals
- Signals2
- *Smart Ptr
- Spirit
- Statechart
- Static Assert
- String Algo
- Swap
- System
- *Test
- *Thread
- Timer
- Tokenizer
- TR1
- Tribool
- *Tuple
- Type Traits
- Typeof
- Units
- Unordered
- Utility
- *Uuid
- Value Initialized
- Variant
- Wave
- Xpressive
tisdag 1 november 2011
Ubuntu 11.10 on Thinkpad T420
I share my experience on getting ubuntu 11.10 running on a Lenovo Thinkpad T420.
The computer has a core i5 processor, a 1600x900 screen with a nvidia graphics card and an integrated gpu on the processor. Since I prefer silence before playing games, I have shut off the discrete gpu.
I use a kingston ssd which reaches over 500 MB/s in the ubuntu disk test. Impressive is the least I can say. The computer boots really fast.
This computer has a wonderful feature I did not know of until i unpacked it: a small light on the top of the screen, lighting up the keyboard (controlled via a key combination)!
Update bios
I updated the bios to the latest revision after having install problems. Those problems were related to a faulty hard drive, which is now replaced (note to self: never buy stuff where firmware updates is a news issue). So the bios update may be unnecessary to install. Your mileage may vary.
Bios settings
I made an overly complicated install as I only had the normal ubuntu install cd, not the alternate one. To get an adequate level of system encryption, I first installed normally, then live cd booted, created a new luks filesystem inside lvm, copied the install to the encrypted system, chrooted to it and built initramfs and modified fstab and crypttab. A bit tricky, but it works. I recommend using the alternate installer instead.
Fan
The fan is running all the time. I followed the instructions here with the small change that /etc/thinkfan.conf should contain
sensor /sys/devices/platform/coretemp.0/temp1_input
sensor /sys/devices/platform/coretemp.0/temp2_input
sensor /sys/devices/platform/coretemp.0/temp3_input
Works like a charm.
The rest
I have not noticed anything that does not work. The buttons I use work as they should (volume, screen brightness). The rest like speakers, usb, touchpad etc. works perfectly.
Left to do
enable trim on the ssd.
Links
debian on t420
The computer has a core i5 processor, a 1600x900 screen with a nvidia graphics card and an integrated gpu on the processor. Since I prefer silence before playing games, I have shut off the discrete gpu.
I use a kingston ssd which reaches over 500 MB/s in the ubuntu disk test. Impressive is the least I can say. The computer boots really fast.
This computer has a wonderful feature I did not know of until i unpacked it: a small light on the top of the screen, lighting up the keyboard (controlled via a key combination)!
Update bios
I updated the bios to the latest revision after having install problems. Those problems were related to a faulty hard drive, which is now replaced (note to self: never buy stuff where firmware updates is a news issue). So the bios update may be unnecessary to install. Your mileage may vary.
Bios settings
- sata mode ahci
- boot to uefi only
- turn off discrete graphics
- turn off "os optimus detection"
- set boot order to cd before hard drive.
- enable boot screen diagnostics.
I made an overly complicated install as I only had the normal ubuntu install cd, not the alternate one. To get an adequate level of system encryption, I first installed normally, then live cd booted, created a new luks filesystem inside lvm, copied the install to the encrypted system, chrooted to it and built initramfs and modified fstab and crypttab. A bit tricky, but it works. I recommend using the alternate installer instead.
Fan
The fan is running all the time. I followed the instructions here with the small change that /etc/thinkfan.conf should contain
sensor /sys/devices/platform/coretemp.0/temp1_input
sensor /sys/devices/platform/coretemp.0/temp2_input
sensor /sys/devices/platform/coretemp.0/temp3_input
Works like a charm.
The rest
I have not noticed anything that does not work. The buttons I use work as they should (volume, screen brightness). The rest like speakers, usb, touchpad etc. works perfectly.
Left to do
enable trim on the ssd.
Links
debian on t420
lördag 15 oktober 2011
Egendriftat alternativ dropbox
Äntligen har det dykt upp ett opensource-program för att köra en egen dropboxliknande tjänst!
Har inte hunnit kolla alls, men noterar länken så jag kommer ihåg det sen. Tyvärr är websidan för tillfället död, men sidan för nedladdning av källkoden lever:
sparkleshare
Har inte hunnit kolla alls, men noterar länken så jag kommer ihåg det sen. Tyvärr är websidan för tillfället död, men sidan för nedladdning av källkoden lever:
sparkleshare
Hur spotify fungerar
Det finns en mycket intressant artikel som berättar om hur spotify fungerar (i vissa avseenden).
Klienten strömmar data både från spotifys servrar och andra klienter. Hur detta sker berättas i artikeln som går att läsa här:
http://www.csc.kth.se/~gkreitz/spotify-p2p10/
Väldigt intressant. Spotifyservrarna står för ca 9% av lasten, 36% via andra klienter och resten från lokalt lagrade data. Det betyder alltså att serverbelastningen är en femtedel av vad den hade varit utan p2p-funktionen!
Genom att börja ladda låtar från servern lyckas man hålla nere fördröjningen från "play" till att det börjar spela till imponerande 256 ms (medianvärde).
Artikeln beskriver hur man begränsar t ex antalet anslutningar och andra parameterar för att förenkla implementationen av både klient och server, och att minska belastningen på folks nätverksutrustning.
Undrar hur stor lasten är totalt? Totalt finns ca 10 miljoner användare(källa: http://www.csc.kth.se/~gkreitz/spotify-p2p11/). Om jag gissar att genomsnittsanvändare lyssnar på ca 20 låtar á 4 minuter om dagen (en vild gissning) och denna delas jämnt över ca 12 timmar (aktiviteten är störst dagtid, lasten är nästan sinusformad, se http://www.csc.kth.se/~gkreitz/spotify-p2p10/, detta motsvarar toppvärdet 2 ggr genomsnittslasten)
så blir totala lasten som högst under dagen
10e6 användare*20 låtar*240 s/låt/(12 h*3600 s/h) * 160 kbit/s=178Gbit/s
Med avlastning enligt ovan behöver servrarna bara ta hand om 9% av detta vilket blir 16 Gb/s. Det är en rätt stadigt belastning. En gigabitanslutning för företag kostar ca 10kSEK/mån exkl. moms sist jag kollade (2008?). Om vi bortser från volymrabatt betyder det att bandbredden per användare kostar ca 16*10e3/10e6=2 öre per användare och månad. (man behöver lite marginal för sällsynta tillfällen, så låt marginalen kvittas mot volymrabatten för att slippa räkna mer noggrant.)
Hur många servrar behöver man? Säg att en server kan streama musik i 200 Mbit/s (trots allt är det rätt jobbigt eftersom alla klienter vill åt olika filer, jobbigt jämfört med om 10 miljoner klienter ska ladda ner samma ubuntu-iso som då kan cachas), då behövs ca 100 servrar (några går väl åt för att sköta trackern också). Sen ska det skickas ut reklam, hanteras inloggning etc men det måste vara trivialt jämfört med att strömma musik i 16Gb/s. Med 200W per server (man får hoppas de bygger energisnålt!) blir det ca 100*200W*730 timmar/månad*1 kr/kWh=15 kSEK elräkning per månad, ca 0.15 öre per användare och månad.
Säg att det går åt dubbelt så många servrar (någonstans måste musiken lagras) så är det ett väldigt kostnadseffektivt sätt att distribuera musik. Har för mig att en cd kostar tio kr att tillverka.
Stor brasklapp för att jag klantat till något i beräkningarna ovan. Har inte dubbelkollat, utan skrivit medan jag tänkt.
Klienten strömmar data både från spotifys servrar och andra klienter. Hur detta sker berättas i artikeln som går att läsa här:
http://www.csc.kth.se/~gkreitz/spotify-p2p10/
Väldigt intressant. Spotifyservrarna står för ca 9% av lasten, 36% via andra klienter och resten från lokalt lagrade data. Det betyder alltså att serverbelastningen är en femtedel av vad den hade varit utan p2p-funktionen!
Genom att börja ladda låtar från servern lyckas man hålla nere fördröjningen från "play" till att det börjar spela till imponerande 256 ms (medianvärde).
Artikeln beskriver hur man begränsar t ex antalet anslutningar och andra parameterar för att förenkla implementationen av både klient och server, och att minska belastningen på folks nätverksutrustning.
Undrar hur stor lasten är totalt? Totalt finns ca 10 miljoner användare(källa: http://www.csc.kth.se/~gkreitz/spotify-p2p11/). Om jag gissar att genomsnittsanvändare lyssnar på ca 20 låtar á 4 minuter om dagen (en vild gissning) och denna delas jämnt över ca 12 timmar (aktiviteten är störst dagtid, lasten är nästan sinusformad, se http://www.csc.kth.se/~gkreitz/spotify-p2p10/, detta motsvarar toppvärdet 2 ggr genomsnittslasten)
så blir totala lasten som högst under dagen
10e6 användare*20 låtar*240 s/låt/(12 h*3600 s/h) * 160 kbit/s=178Gbit/s
Med avlastning enligt ovan behöver servrarna bara ta hand om 9% av detta vilket blir 16 Gb/s. Det är en rätt stadigt belastning. En gigabitanslutning för företag kostar ca 10kSEK/mån exkl. moms sist jag kollade (2008?). Om vi bortser från volymrabatt betyder det att bandbredden per användare kostar ca 16*10e3/10e6=2 öre per användare och månad. (man behöver lite marginal för sällsynta tillfällen, så låt marginalen kvittas mot volymrabatten för att slippa räkna mer noggrant.)
Hur många servrar behöver man? Säg att en server kan streama musik i 200 Mbit/s (trots allt är det rätt jobbigt eftersom alla klienter vill åt olika filer, jobbigt jämfört med om 10 miljoner klienter ska ladda ner samma ubuntu-iso som då kan cachas), då behövs ca 100 servrar (några går väl åt för att sköta trackern också). Sen ska det skickas ut reklam, hanteras inloggning etc men det måste vara trivialt jämfört med att strömma musik i 16Gb/s. Med 200W per server (man får hoppas de bygger energisnålt!) blir det ca 100*200W*730 timmar/månad*1 kr/kWh=15 kSEK elräkning per månad, ca 0.15 öre per användare och månad.
Säg att det går åt dubbelt så många servrar (någonstans måste musiken lagras) så är det ett väldigt kostnadseffektivt sätt att distribuera musik. Har för mig att en cd kostar tio kr att tillverka.
Stor brasklapp för att jag klantat till något i beräkningarna ovan. Har inte dubbelkollat, utan skrivit medan jag tänkt.
torsdag 29 september 2011
Varför jag inte använder facebook
Dags att slå in lite öppna dörrar. Det handlar om facebook.
Jag gick inte med på Facebook när det kom. Tyckte att man kan maila mig om man vill ha kontakt, jag är lätthittad på nätet.
Sedan kom det ett larm om att man delar med sig av rättigheter till bilder man lägger upp. Och nu i dagarna kommer larm om att facebook kan spåra vilka websidor du besöker (förutsatt att de har en gillaknapp, annars är det svårt).
Jag tycker det är rätt obehagligt. Men, det är frivilligt att vara med. Om man inte gillar det kan man stå utanför.
Och det är här problemet kommer: facebook håller på att bli etablerat som ett "eget internet". Fler och fler företag har gillaknappar (för övrigt rätt fånigt) och/eller har en egen sida host facebook. Tex facebook.com/företag istället för www.företag.se Viss information finns bara åtkomlig via facebook. Exempelvis ger en förening jag är med i ut information via facebook. Som tur är finns informationen även på annan plats, men det visar på problemet: Man är på sikt tvungen att gå med. Och vips sitter vi där och facebook gör som de vill, för man har redan godkänt villkoren och är så invävd i det att man fortsätter, trots att man ger ut nästan all information till facebook. Och för företagen gäller det att man måste betala och acceptera facebooks villkor för att få synas.
Så, för n:te gången, vad var det jag sa. Ni hittar vare sig mig eller mitt företag på facebook. Mitt företag finns under sin egen adress www.dreik.se. Och jag själv finns på www.pauldreik.se. Välkomna dit, om ni vill.
Jag gick inte med på Facebook när det kom. Tyckte att man kan maila mig om man vill ha kontakt, jag är lätthittad på nätet.
Sedan kom det ett larm om att man delar med sig av rättigheter till bilder man lägger upp. Och nu i dagarna kommer larm om att facebook kan spåra vilka websidor du besöker (förutsatt att de har en gillaknapp, annars är det svårt).
Jag tycker det är rätt obehagligt. Men, det är frivilligt att vara med. Om man inte gillar det kan man stå utanför.
Och det är här problemet kommer: facebook håller på att bli etablerat som ett "eget internet". Fler och fler företag har gillaknappar (för övrigt rätt fånigt) och/eller har en egen sida host facebook. Tex facebook.com/företag istället för www.företag.se Viss information finns bara åtkomlig via facebook. Exempelvis ger en förening jag är med i ut information via facebook. Som tur är finns informationen även på annan plats, men det visar på problemet: Man är på sikt tvungen att gå med. Och vips sitter vi där och facebook gör som de vill, för man har redan godkänt villkoren och är så invävd i det att man fortsätter, trots att man ger ut nästan all information till facebook. Och för företagen gäller det att man måste betala och acceptera facebooks villkor för att få synas.
Så, för n:te gången, vad var det jag sa. Ni hittar vare sig mig eller mitt företag på facebook. Mitt företag finns under sin egen adress www.dreik.se. Och jag själv finns på www.pauldreik.se. Välkomna dit, om ni vill.
onsdag 27 juli 2011
Om incitament
Den här videon berättar om varför människor motiveras av annat än pengar. Väldigt intressant, och kul sätt att presentera resultat på.
Jag försöker fundera på vad jag drivs av när jag jobbar och de saker jag engagerar mig i på fritiden. Hur man kan omsätta dessa resultat till att skapa bättre arbetsplatser? Kan jag kanske tillämpa detta på mitt sätt att arbeta?
http://www.youtube.com/watch?v=u6XAPnuFjJc
Jag försöker fundera på vad jag drivs av när jag jobbar och de saker jag engagerar mig i på fritiden. Hur man kan omsätta dessa resultat till att skapa bättre arbetsplatser? Kan jag kanske tillämpa detta på mitt sätt att arbeta?
http://www.youtube.com/watch?v=u6XAPnuFjJc
måndag 25 juli 2011
Hur man bygger en NAS
Den här intressanta artikeln beskriver hur man bygger en NAS som heter duga.
http://blog.backblaze.com/2011/07/20/petabytes-on-a-budget-v2-0revealing-more-secrets/
Det är företaget backblaze som visar hur de bygger sina servar för att kunna tillhandahålla billig lagring.
http://blog.backblaze.com/2011/07/20/petabytes-on-a-budget-v2-0revealing-more-secrets/
Det är företaget backblaze som visar hur de bygger sina servar för att kunna tillhandahålla billig lagring.
lördag 16 juli 2011
Problem with hard drive upgrade on Macbook Pro 2.53 GHz
Problem:
Macbook pro 2.53 GHz (unibody 15 inch, late 2009, macbook pro5,4) freezes and beachballs after upgrading to a larger harddrive.
The solution:
Force the harddrive to use SATA1, not SATA2. Put a jumper on the harddrive, locking it down to use the older SATA standard even if the drive and the computer handles SATA2 officially. This avoids the software bug in Mac Os X causing the problem.
The details:
I had a lot of problem with upgrading the hard drive from 250 GB to 750GB on my macbook pro 2.53 GHz (late 2009, macbookpro5,4). I got a lot of beachballing, freezes etc.. In fact, I had to install to a usb drive and then clone the installation. Running Ubuntu on the computer was no problem at all, which excluded hardware problem. Also, memtest86+ passed without remarks.
I contacted the store I bought the computer from, Apple support and two firms specialized in repairing Apple computers. None of them had ever heard of such a problem. In fact, they used hard drives of the same manufacturer when they upgraded clients computers.
Googling revealed that other users also had problems. Suggested solutions included disabling the shock sensor, adjusting the power scheme or downgrading the efi firmware. The last solution needs installing an unsupported file from some unknown source, which I am not willing to do.
The first two solutions made the situation better, but not good enough.
It turned out the problem is that this particular hardware version does not work with SATA2 and Mac OS X. The problem should really be fixed in Mac Os X, but Apple does not want to do that.
The support for SATA2 was added with the newer firmware, which unfortunately brings the bad behaviour.
Therefore, one has to somehow force the hard drive into using SATA1. Luckily, one can set a jumper on the hard drive which does just this. Problem solved.
The computer now works brilliant. Hopefully someone will google the same symptom, find this page and solve their problem instead of wasting time like I did!
Macbook pro 2.53 GHz (unibody 15 inch, late 2009, macbook pro5,4) freezes and beachballs after upgrading to a larger harddrive.
The solution:
Force the harddrive to use SATA1, not SATA2. Put a jumper on the harddrive, locking it down to use the older SATA standard even if the drive and the computer handles SATA2 officially. This avoids the software bug in Mac Os X causing the problem.
The details:
I had a lot of problem with upgrading the hard drive from 250 GB to 750GB on my macbook pro 2.53 GHz (late 2009, macbookpro5,4). I got a lot of beachballing, freezes etc.. In fact, I had to install to a usb drive and then clone the installation. Running Ubuntu on the computer was no problem at all, which excluded hardware problem. Also, memtest86+ passed without remarks.
I contacted the store I bought the computer from, Apple support and two firms specialized in repairing Apple computers. None of them had ever heard of such a problem. In fact, they used hard drives of the same manufacturer when they upgraded clients computers.
Googling revealed that other users also had problems. Suggested solutions included disabling the shock sensor, adjusting the power scheme or downgrading the efi firmware. The last solution needs installing an unsupported file from some unknown source, which I am not willing to do.
The first two solutions made the situation better, but not good enough.
It turned out the problem is that this particular hardware version does not work with SATA2 and Mac OS X. The problem should really be fixed in Mac Os X, but Apple does not want to do that.
The support for SATA2 was added with the newer firmware, which unfortunately brings the bad behaviour.
Therefore, one has to somehow force the hard drive into using SATA1. Luckily, one can set a jumper on the hard drive which does just this. Problem solved.
The computer now works brilliant. Hopefully someone will google the same symptom, find this page and solve their problem instead of wasting time like I did!
torsdag 16 juni 2011
Hur lång kan en lina vara innan den brister av sin egen tyngd?
I en intressant diskussion vid kaffeautomaten häromdagen väcktes min nyfikenhet. Vi diskuterade om man kunde bygga en pyramid oändligt hög. Eftersom vikten är proportionell mot höjden upphöjt till tre, som fördelas på basarean som är proportionell mot höjden upphöjt till två kommer materialbelastningen att öka linjärt med höjden. Alltså finns det en (ändlig) gräns där materialet inte kan bära en högre pyramid. Så nej, det går inte.
Relaterat är hur långt ett rep kan vara innan det går sönder av sin egen vikt (tänk till exempel på vajrar till en hiss i en gruva). Man brukar begränsa sig till att man har ett konstant tvärsnitt, dvs att linan är lika tjock hela vägen. Men om man tillåter arean att ändras utefter linans längd? Går det att göra på ett sådant sätt att man kan göra en längre lina?
Det visar sig att det går. Tänk att man låter arean variera som A(x)=A0*e^kx där A0 är basarean, k är en konstant och x är längden längs med linan. Volymen av linan från minus oändligheten till x är då rho*A0*e^kx/k där rho är linans densitet. Med homogent tyngdkraftsfält g fås då materialpåkänning sigma=rho*g/k som är konstant. Om man bestämmer sigma och känner till materialets densitet rho kan man då räkna ut vad k ska vara för att linan ska hålla. För kevlar, ett lätt och starkt material blir det k=4e-6 1/m om man sätter in brottgränsen.
Detta leder oss till rymdhissen! Det finns en ide om att man sätter en vikt ute i geostationär omloppsbana runt jorden, dvs att den ser ut att vara på samma ställe på himlen jämt. Om man sätter den tillräckligt långt ut är centripetalaccelerationen starkare än tyngdkraften. Tillräckligt långt ut inträffar vid R=1.7 GM. Om man sätter sin kevlarlina dit (och antar homogen gravitation vilket är ett värre fall än vad det egentligen skulle vara, centripetalaccelerationen och den minskade gravitationen högre upp inverkar positivt) så har den ca 980 gånger större tvärsnittsarea än vid jordytan. Det är alltså ca 30 gånger större diameter.
Tänk vad häftigt att kunna åka hiss upp i rymden. Kanske inte så kul när överdelen av linan träffas av en meteorit...
Att ha arean varierande exponentiellt är optimalt, eftersom jag visat ovan att man då kan få konstant påkänning utefter hela linans längd. Ingen del av linan är påkänd mer än någon annan. Men finns det någon annan funktion för lintjockleken som också gör att man kan uppnå oändlig längd?
Sen undrar jag om det finns en analytisk lösning för ovanstående även om man räknar med inverkan av gravitationens avtagande samt centripetalaccelerationen. Hmm.
Relaterat är hur långt ett rep kan vara innan det går sönder av sin egen vikt (tänk till exempel på vajrar till en hiss i en gruva). Man brukar begränsa sig till att man har ett konstant tvärsnitt, dvs att linan är lika tjock hela vägen. Men om man tillåter arean att ändras utefter linans längd? Går det att göra på ett sådant sätt att man kan göra en längre lina?
Det visar sig att det går. Tänk att man låter arean variera som A(x)=A0*e^kx där A0 är basarean, k är en konstant och x är längden längs med linan. Volymen av linan från minus oändligheten till x är då rho*A0*e^kx/k där rho är linans densitet. Med homogent tyngdkraftsfält g fås då materialpåkänning sigma=rho*g/k som är konstant. Om man bestämmer sigma och känner till materialets densitet rho kan man då räkna ut vad k ska vara för att linan ska hålla. För kevlar, ett lätt och starkt material blir det k=4e-6 1/m om man sätter in brottgränsen.
Detta leder oss till rymdhissen! Det finns en ide om att man sätter en vikt ute i geostationär omloppsbana runt jorden, dvs att den ser ut att vara på samma ställe på himlen jämt. Om man sätter den tillräckligt långt ut är centripetalaccelerationen starkare än tyngdkraften. Tillräckligt långt ut inträffar vid R=1.7 GM. Om man sätter sin kevlarlina dit (och antar homogen gravitation vilket är ett värre fall än vad det egentligen skulle vara, centripetalaccelerationen och den minskade gravitationen högre upp inverkar positivt) så har den ca 980 gånger större tvärsnittsarea än vid jordytan. Det är alltså ca 30 gånger större diameter.
Tänk vad häftigt att kunna åka hiss upp i rymden. Kanske inte så kul när överdelen av linan träffas av en meteorit...
Att ha arean varierande exponentiellt är optimalt, eftersom jag visat ovan att man då kan få konstant påkänning utefter hela linans längd. Ingen del av linan är påkänd mer än någon annan. Men finns det någon annan funktion för lintjockleken som också gör att man kan uppnå oändlig längd?
Sen undrar jag om det finns en analytisk lösning för ovanstående även om man räknar med inverkan av gravitationens avtagande samt centripetalaccelerationen. Hmm.
lördag 11 juni 2011
Hur en hårddisk fungerar
Otroligt häftigt att en hårddisk kan lagra så mycket, så tillförlitligt till en så låg kostnad. Den här videon berättar lite om hur det går till under skalet!
söndag 15 maj 2011
Slumpmässig information 7
lördag 14 maj 2011
Program för att organisera bilder
Nästan alla har massa digitala bilder. Själv har jag i storleksordningen tiotusen. De behöver organiseras!
Jag har en mappstruktur för att lagra bilderna vilket gör att det är lätt att hitta bilder efter datum. Jag kan se bilderna och bläddra snabbt med verktyg jag redan har. Strukturen är lätt att backupa och överblicka. Jag skulle nu vilja ha fler funktioner: tagga med position, bilder, nyckelord och att lägga till beskrivningar. En bild säger mer än tusen ord, men ibland gör ord att bilden kan förstås och beskriva allt roligt och intressant som ofta utspelar sig när man fotograferar. Det är just såna här uppgifter som ett bildhanteringsprogram kan utföra.
Jag använder idag finders inbyggda visning på mac os x respektive kuickshow på linux/kde. Båda dessa är väldigt snabba att visa foton med, det går väldigt fort att bläddra mellan foton.
Nu kommer det svåra: jag vill kunna organisera foton från flera datorer, från flera användare. Jag vill kunna byta program i framtiden. Och så vidare...
Jag läser på i digikams manual som har en hel del att säga om arkivering, format, varför metadata ska bäddas in i filer osv. Väldigt läsvärt! Hittas som pdf via "documentation"-länken på digikams hemsida. En intressant diskussion om huruvida metadata ska lagras i filer, databas eller båda finns här.
Verkar som att en approach där taggar etc lagras direkt i bilderna är vettig. Tyvärr betyder det att filerna ändras, jag hade hellre sett att en separat metadatafil skapades per bild.
Jag har några alternativ.
Picasa
Jag testar picasa på mac. Det går att köra både på mac, windows och linux. Det går att låta bilderna ligga där jag själv vill, dvs att programmet ej kopierar bilderna till sitt eget bibliotek. Det går att tagga, exportera album, lägga in personer, göra (virtuella) album.
Taggar hamnar i originalfilen, dvs filen ändras när man jobbar med taggning. Övrig information hamnar någon annanstans, skilt från fotokatalogen. Aj aj. Det blir inte bättre av att det finns buggrapporter om att redian existerande exifdata ej behålls korrekt i filerna.
Eftersom picasa ägs av google trodde jag att sökfunktionen skulle vara superb. Det är den inte. T ex lyckades jag inte leta fram foton från ett visst datumintervall, något av de viktigaste vad gäller sökning. Inte heller lyckades jag kombinera ihop sökningar, t ex en viss tagg och ett visst datum.
Proogrammet känns rätt segt, som att man inte kommit hela vägen fram. Det går inte att markera flera foton och utföra samma åtgärd t ex (på vissa ställen i programmet går det). Det känns inte som ett program som utvecklarna använder själv, helt enkelt. Det är mer krut lagt på antalet funktioner än perfekt funktion på det grundläggande. Gränssnittet är splittrat och känns rörigt, även om det är väldigt snyggt.
Ansiktsigenkänningen är helt fantastisk och riktigt häftig. Helt otroligt att kunna leta fram ansikten ur en fotosamling.
Det går också att exportera till statiska html-gallerier, en väldigt praktisk funktion.
Såvida det inte går att synkronisera metadata, är picasa inte ett alternativ. För att binda upp mig till ett program måste det vara sagolikt perfekt.
Shotwell
Jag testar Shotwell 0.6 via Debian Squeeze. Riktigt bra förstaintryck - lämnar originalen intakta, sparar informationen i en separat databas, smidig navigering, snabbt att jobba med. Snyggt interface, listning på olika sätt. Verkar mycket lovande!
Sen det dåliga.
Inget stöd för beskrivningar - varför inte? Kan det finnas i senare versioner? Utan det faller detta alternativ helt för mig.
Digikam
Jag testar Digikam 1.2.0 via Debian Squeeze. Första konfigurationen låter mig välja att skriva taggar etc i en separat fil och lämna originalen intakta. Bra! Programmet är väldigt komplext - mer komplext än picasa. Sökfunktionen är helt fantastisk och gör att man verkligen kan hitta det man vill (kombinationer av taggar, datum etc). Det går att lägga in beskrivningar av foton och sätta betyg. Export går bra.
Det går bra att låta bildfilerna ligga readonly på nätverk utan att digikam kopierar över filerna. Man måste bara avnända det som kallas nätverksenhet i digikam. Det går bra att bildkatalogen inte alltid finns. Det går bra att peka på en symbolisk länk. Det går däremot inte att ha en relativ sökväg.
Det dåliga:
tangentbodgensävarna är ett mysterium - hur ska man jobba effektiv om man behöver flytta fält med musen varje gång man vill skriva en kommentar? det verkar gå att konfigurera detta, får se om det går att göra något åt det.
Slutsats
Det får bli digikam och en skräddarsyd lösning för att synkronisera dess bilddatabas. Programmet är helt överlägset alternativen. Jag ska försöka beskriva lösningen i ett separat inlägg.
Jag har en mappstruktur för att lagra bilderna vilket gör att det är lätt att hitta bilder efter datum. Jag kan se bilderna och bläddra snabbt med verktyg jag redan har. Strukturen är lätt att backupa och överblicka. Jag skulle nu vilja ha fler funktioner: tagga med position, bilder, nyckelord och att lägga till beskrivningar. En bild säger mer än tusen ord, men ibland gör ord att bilden kan förstås och beskriva allt roligt och intressant som ofta utspelar sig när man fotograferar. Det är just såna här uppgifter som ett bildhanteringsprogram kan utföra.
Jag använder idag finders inbyggda visning på mac os x respektive kuickshow på linux/kde. Båda dessa är väldigt snabba att visa foton med, det går väldigt fort att bläddra mellan foton.
Nu kommer det svåra: jag vill kunna organisera foton från flera datorer, från flera användare. Jag vill kunna byta program i framtiden. Och så vidare...
- stöd för nyckelord, bildtext och beskrivningar
- synkroniserbart via filsystem: det sätt informationen lagras på ska vara möjligt att dela till flera datorer, t ex en databasfil som ligger någonstans i filträdet.
- bevarar befintlig mappstruktur, dvs kopierar inte foton till egen plats. Det ska organisera fotona, inte ta över dom.
- stöd för linux och mac, eller att det går att använda olika program för att hantera samma data
- data på ett format som går att exportera alt. använda, inför ett eventuellt byte av program
- ej kräva nätanslutning vid användning
- ingen begränsning på antal bilder eller storlek
- rimligt effektivt att arbeta med, ska inte behöva få musarm eller bli uttråkad av att det går segt
- sökning på tid eller nyckelord
- taggning med personer
- taggning av plats
- betygsättning, för att kunna plocka ut några riktigt bra bilder
- export till htmlgalleri
- open source
Jag läser på i digikams manual som har en hel del att säga om arkivering, format, varför metadata ska bäddas in i filer osv. Väldigt läsvärt! Hittas som pdf via "documentation"-länken på digikams hemsida. En intressant diskussion om huruvida metadata ska lagras i filer, databas eller båda finns här.
Verkar som att en approach där taggar etc lagras direkt i bilderna är vettig. Tyvärr betyder det att filerna ändras, jag hade hellre sett att en separat metadatafil skapades per bild.
Jag har några alternativ.
- digikam
- shotwell
- picasa
- "webbaserat" på lokal server (förslag?) eller kanske central server
- programmet gallery
- något av det på http://directory.fsf.org/category/pa/
- photo organizer
- http://coppermine-gallery.net/
Picasa
Jag testar picasa på mac. Det går att köra både på mac, windows och linux. Det går att låta bilderna ligga där jag själv vill, dvs att programmet ej kopierar bilderna till sitt eget bibliotek. Det går att tagga, exportera album, lägga in personer, göra (virtuella) album.
Taggar hamnar i originalfilen, dvs filen ändras när man jobbar med taggning. Övrig information hamnar någon annanstans, skilt från fotokatalogen. Aj aj. Det blir inte bättre av att det finns buggrapporter om att redian existerande exifdata ej behålls korrekt i filerna.
Eftersom picasa ägs av google trodde jag att sökfunktionen skulle vara superb. Det är den inte. T ex lyckades jag inte leta fram foton från ett visst datumintervall, något av de viktigaste vad gäller sökning. Inte heller lyckades jag kombinera ihop sökningar, t ex en viss tagg och ett visst datum.
Proogrammet känns rätt segt, som att man inte kommit hela vägen fram. Det går inte att markera flera foton och utföra samma åtgärd t ex (på vissa ställen i programmet går det). Det känns inte som ett program som utvecklarna använder själv, helt enkelt. Det är mer krut lagt på antalet funktioner än perfekt funktion på det grundläggande. Gränssnittet är splittrat och känns rörigt, även om det är väldigt snyggt.
Ansiktsigenkänningen är helt fantastisk och riktigt häftig. Helt otroligt att kunna leta fram ansikten ur en fotosamling.
Det går också att exportera till statiska html-gallerier, en väldigt praktisk funktion.
Såvida det inte går att synkronisera metadata, är picasa inte ett alternativ. För att binda upp mig till ett program måste det vara sagolikt perfekt.
Shotwell
Jag testar Shotwell 0.6 via Debian Squeeze. Riktigt bra förstaintryck - lämnar originalen intakta, sparar informationen i en separat databas, smidig navigering, snabbt att jobba med. Snyggt interface, listning på olika sätt. Verkar mycket lovande!
Sen det dåliga.
Inget stöd för beskrivningar - varför inte? Kan det finnas i senare versioner? Utan det faller detta alternativ helt för mig.
Digikam
Jag testar Digikam 1.2.0 via Debian Squeeze. Första konfigurationen låter mig välja att skriva taggar etc i en separat fil och lämna originalen intakta. Bra! Programmet är väldigt komplext - mer komplext än picasa. Sökfunktionen är helt fantastisk och gör att man verkligen kan hitta det man vill (kombinationer av taggar, datum etc). Det går att lägga in beskrivningar av foton och sätta betyg. Export går bra.
Det går bra att låta bildfilerna ligga readonly på nätverk utan att digikam kopierar över filerna. Man måste bara avnända det som kallas nätverksenhet i digikam. Det går bra att bildkatalogen inte alltid finns. Det går bra att peka på en symbolisk länk. Det går däremot inte att ha en relativ sökväg.
Det dåliga:
tangentbodgensävarna är ett mysterium - hur ska man jobba effektiv om man behöver flytta fält med musen varje gång man vill skriva en kommentar? det verkar gå att konfigurera detta, får se om det går att göra något åt det.
Slutsats
Det får bli digikam och en skräddarsyd lösning för att synkronisera dess bilddatabas. Programmet är helt överlägset alternativen. Jag ska försöka beskriva lösningen i ett separat inlägg.
Normalisering av Unicode
Det förträffliga programmet iconv stöder inte konvertering mellan olika normaliseringsformer, såsom (det också förträffliga programmet) convmv gör.
Det jag vill göra är att konvertera en text från unicode normaliseringsform D (mac os x) till normaliseringsform C (resten av världen:-). Det lättaste är att öppna filen i en texteditor och ta spara som, men det här är något jag ska göra i ett script så jag vill ha ett ickeinteraktivt program.
Lite undersökning av möjligheterna i perl pekar i riktningen Normalize. Perl är hyfsat väldefinierat vad gäller teckenkodning till skillnad från php som är besvärligt eftersom det inte brytt sig om teckenkodning förrän på senare tid. Tyvärr får jag inte Normalize att fungera som avsett!
Som tur är gav mig källkoden till convmv (som är skrivet i perl) en bra hint i en kommentar i texten. Vid närmare läsning visar det sig att det är lite si och så med buggigheten i perl vad gäller dessa funktioner. Eftersom jag kör lite olika perlversioner här och var tröttnar jag och vänder mig till php istället.
Såhär ser det ut på mac os x (med macports version av php, efter att ha installerat php5-intl via macports) (reservation för att vissa tecken äts upp av bloggeditorn)
Anledningen till att jag håller på med det här är att jag håller på att utarbeta ett system för att synkronisera bildorganiseringsprogram mellan flera datorer. Mac använder normaliseringsform D så det blir problem när filnamn inte stämmer.
Det jag vill göra är att konvertera en text från unicode normaliseringsform D (mac os x) till normaliseringsform C (resten av världen:-). Det lättaste är att öppna filen i en texteditor och ta spara som, men det här är något jag ska göra i ett script så jag vill ha ett ickeinteraktivt program.
Lite undersökning av möjligheterna i perl pekar i riktningen Normalize. Perl är hyfsat väldefinierat vad gäller teckenkodning till skillnad från php som är besvärligt eftersom det inte brytt sig om teckenkodning förrän på senare tid. Tyvärr får jag inte Normalize att fungera som avsett!
Som tur är gav mig källkoden till convmv (som är skrivet i perl) en bra hint i en kommentar i texten. Vid närmare läsning visar det sig att det är lite si och så med buggigheten i perl vad gäller dessa funktioner. Eftersom jag kör lite olika perlversioner här och var tröttnar jag och vänder mig till php istället.
Såhär ser det ut på mac os x (med macports version av php, efter att ha installerat php5-intl via macports) (reservation för att vissa tecken äts upp av bloggeditorn)
#!/opt/local/bin/php
$fp = fopen('php://stdin', 'r');
while($str=fgets($fp)) {
echo Normalizer::normalize( $str, Normalizer::FORM_C );
}
?>
Anledningen till att jag håller på med det här är att jag håller på att utarbeta ett system för att synkronisera bildorganiseringsprogram mellan flera datorer. Mac använder normaliseringsform D så det blir problem när filnamn inte stämmer.
Etiketter:
normaliseringsform,
perl,
php,
unicode
måndag 25 april 2011
Mumintrollen och satan
Via buzz fick jag tips om detta konstiga inlägg - en varning för att Mumintrollen vänder barn till satan.
Både underhållande och skrämmande. Jag trodde först att det var ett aprilskämt.
http://www.landoverbaptist.net/showthread.php?t=61771
Både underhållande och skrämmande. Jag trodde först att det var ett aprilskämt.
http://www.landoverbaptist.net/showthread.php?t=61771
måndag 17 januari 2011
Nog med reklam
Nu ser ni ingen reklam här längre. Förut var det en banner från google här ovan.
Även om webreklam inte är lika irriterande som radio och tvreklam, hoppas jag att ni som läsare uppskattar reklamfritt.
Jag fattar inte riktigt varför jag haft reklamen där så länge.
Även om webreklam inte är lika irriterande som radio och tvreklam, hoppas jag att ni som läsare uppskattar reklamfritt.
Jag fattar inte riktigt varför jag haft reklamen där så länge.
söndag 9 januari 2011
Hur hänger händelser ihop?
Jag snubblade över en intressant artikel "connecting the dots" som handlar om en metod att knyta samman nyheter som hänger samman. Exempelvis hur finanskrisen relaterar till Obamas hälsovårdsreform. Det är forskningsresultat och ganska preliminärt, men otroligt intressant!
Sådana här metoder tror jag vi kommer att råka på ganska snart, t ex på tidningars webbplatser eller kanske som fristående söktjänst.
Via google: Connecting the dots
direktlänk till pdf: http://users.cis.fiu.edu/......p623.pdf
Tipset fick jag via sidan http://jeffhuang.com/best_paper_awards.html
Sådana här metoder tror jag vi kommer att råka på ganska snart, t ex på tidningars webbplatser eller kanske som fristående söktjänst.
Via google: Connecting the dots
direktlänk till pdf: http://users.cis.fiu.edu/......p623.pdf
Tipset fick jag via sidan http://jeffhuang.com/best_paper_awards.html
tisdag 4 januari 2011
Jämförelse mellan att arbeta i Ubuntu och Mac OS X
Jag har nu använt både Mac OS X och Ubuntu rätt mycket (hundratals timmar). Mitt huvudoperativ är fortfarande Debian/KDE (tusentals timmar) och ibland använder jag Windows.
Några saker som är bra och dåligt med användargränssnittet som jag kommit att tänka på.
Mac OS X
+väldigt snabbt och effektivt att musnavigera med multitouch
+dock är snabbt, effektivt och riktigt snyggt
+systeminställningar är snabbsökbara vilket gör det väldigt lätt att hitta det som efterfrågas även när man är osäker vilken kategori inställningen hör till
+väldigt bra sökfunktion uppe i högra hörnet när man letar efter t ex en fil eller ett program
-fönster går bara att storleksändra i nedre högra hörnet
-multipla skrivbord (spaces) är trögt att jobba med. erbjuder inte den avlastning det kan vara när man har väldigt många fönster och program aktiva
Ubuntu (gnome)
+när man trycker på klockan visas en kalender. otroligt smidigt.
+multipla skrivbord (virtual desktop) är väldigt effektivt att arbeta med
-inställningar är uppdelade på administration och inställningar, vilket inte är uppenbart vad som hör till vad.
Jag skulle vilja ha multitouch och dock till gnome/kde! Verkar som att det jobbas åt det hållet, men det tar väl ett tag innan det finns både hårdvara tillgänglig och mjukvara som fungerar smidigt.
Några saker som är bra och dåligt med användargränssnittet som jag kommit att tänka på.
Mac OS X
+väldigt snabbt och effektivt att musnavigera med multitouch
+dock är snabbt, effektivt och riktigt snyggt
+systeminställningar är snabbsökbara vilket gör det väldigt lätt att hitta det som efterfrågas även när man är osäker vilken kategori inställningen hör till
+väldigt bra sökfunktion uppe i högra hörnet när man letar efter t ex en fil eller ett program
-fönster går bara att storleksändra i nedre högra hörnet
-multipla skrivbord (spaces) är trögt att jobba med. erbjuder inte den avlastning det kan vara när man har väldigt många fönster och program aktiva
Ubuntu (gnome)
+när man trycker på klockan visas en kalender. otroligt smidigt.
+multipla skrivbord (virtual desktop) är väldigt effektivt att arbeta med
-inställningar är uppdelade på administration och inställningar, vilket inte är uppenbart vad som hör till vad.
Jag skulle vilja ha multitouch och dock till gnome/kde! Verkar som att det jobbas åt det hållet, men det tar väl ett tag innan det finns både hårdvara tillgänglig och mjukvara som fungerar smidigt.
Prenumerera på:
Inlägg (Atom)