Właśnie mi się niebieski ekran w głowie wyświetlił. Jest taki oto prościutki programik (math.h jest trochę na wyrost, potrzebny w docelowym programie):
$ cat odl.c
#include <stdio.h>
#include <math.h>
int main(int argc, char **argv) {
double d;
scanf("%g",&d);
printf("%g\n",d);
return 0;
}
$ gcc odl.c -lm
$ ./a.out
0
4.85473e-270
WTF?! Skąd mu się to bierze? Albo ja głupi jestem, albo czegoś nie widzę,
chociaż patrzę na to już jakiś czas.
A teraz uwaga! Jeśli zmienną d zrobię zmienną globalną (przeniosę deklarację
przed main), to działa poprawnie!!!
Poratujcie, bo pierwszy raz się z czymś takim spotkałem :-/
--
Łukasz Maśko ICQ: 146553537 _o)
Lukasz.Masko(at)ipipan.waw.pl GG: 2441498 /\\
Registered Linux User #61028 _\_V
pgpxyMyR2IA4u.pgp
Description: PGP signature
_______________________________________________ pld-users-pl mailing list [email protected] http://lists.pld-linux.org/mailman/listinfo/pld-users-pl
